首页 > 综合信息 > 数码 > 正文

Rambus 推 HBM3 内存子系统:速率高达 8.4Gbps,带宽突破 1TB

        【每日科技网】
每日科技网

  8 月 25 日报道,今天,美国内存 IP 厂商 Rambus 宣布推出 HBM3 内存接口子系统,其传输速率达 8.4Gbps,可以为人工智能/机器学习(AI/ML)和高性能计算(HPC)等应用提供 TB 级带宽,是当前速率最快的 HBM 产品。预计 2022 年末或 2023 年初,Rambus HBM3 将会流片,实际应用于数据中心、AI、HPC 等领域。

  芯东西等媒体与 Rambus 大中华区总经理苏雷、Rambus IP 核产品营销总监 Frank Ferro 就 Rambus HBM3 的具体性能以及 Rambus 对客户的支持等进行了深入交流。

  据 Frank 分享,随着越来越多的公司进入人工智能市场,这对内存带宽提出了很多要求,而神经网络和深度学习等 AI 应用也在不断推动内存带宽增长。

  咨询公司 IDC 内存半导体副总裁 Soo Kyoum Kim 曾称:“AI/ML 训练对内存带宽的需求永无止境,一些前沿训练模型现已拥有数以十亿的参数。”

  Rambus 的 HBM3 内存子系统提高了原有性能标准,包含完全集成的 PHY 和数字控制器,可以支持当下很多 AI 及 HPC 应用。

  具体来说,HBM3 的数据传输速率高达 8.4Gbps/pin,带宽达 1075.2GB/s(1.075TB/s)。Rambus 的 HBM3 支持标准的 64 位 16 通道,支持 2、4、8、12 和 16 HBM3 DRAM 堆栈,信道密度达 32Gb。

  Frank 回应芯东西记者问题时称,HBM3 的流片时间预计为 18 个月,因此可能会在 2022 年末或 2023 年初出片,并实际应用于部分客户。

  Frank 称,由于其数据传输速率和带宽较高,HBM3 可以应用于 AI、机器学习、HPC 等多种应用。

  HBM3 采用了 2.5D 架构,最上面集成了 4 条 DRAM 内存条,通过堆叠的方式集成在了一起。内存条下方是 SoC 和中介层,最下面的绿色部分则是封装。

  对客户来说,Rambus 会提供 SI/PI 专家技术支持,确保设备和系统具有的信号和电源完整性。作为 IP 授权的一部分,Rambus 也将提供 2.5D 封装和中介层参考设计。

  2016 年 HBM2 的带宽为 256GB/s,I/O 数据速率为 2Gbps;HBM2E 的带宽则能达到 460GB/s,数据传输速率达 3.6Gbps;SK 海力士公布的 HBM3 带宽和传输速率分别为 665GB/s 和 5.2Gbps;Rambus 的 HBM3 性能又进一步提升,分别达 1075GB/s 和 8.4Gbps。

  Frank 强调,虽然 Rambus 的 HBM3 性能比 SK 海力士此前公布的要更进一步,但 SK 海力士作为 Rambus 的重要客户,Rambus 也会为其提供支持。

  苏雷还透露,当前国内的 AI 芯片厂商都和 Rambus 有所接触,预计行业将会快速升级到 HBM3 标准。

  对于 Rambus 能够为客户提供的服务,Frank 提到 Rambus 在 HBM 市场中拥有丰富的经验和技术优势。

  Rambus 在 2016 年就进入了 HBM 市场,其 HBM2E 内存子系统拥有行业中最快的 4Gbps 速率。

  凭借产品性能,Rambus 获得了超过 50 个市场订单,是市场份额的 HBM IP 供应商。Rambus 的芯片开发基本一次就能成功,无需返工,提升了设计效率。

  同时,Rambus 的 HBM2/2E PHY(端口物理层)支持台积电、三星等多个先进制程节点。其产品集成了 PHY、IO、Decap 等,其客户可以直接采用。

  Rambus 也与 SK 海力士、三星等 DRAM 供应商关系紧密,其测试芯片已经经过了市场上所有供应商的 DRAM 验证,能够为客户提供便捷地服务。

  Rambus 大中华区总经理苏雷分享了近年来 Rambus 所取得的成绩。Rambus 创建时间已经超过 30 年,公司总部位于美国加利福尼亚州,在欧盟和亚洲等地设有办事处,全球员工人数超过 600 人。

  Rambus 拥有 3000 余项专利和应用,2020 年经营现金流达 1.855 亿美元,来自产品、合同等收入同比增长 41%。其主要的客户有三星、美光、SK 海力士等内存厂商和高通、AMD、英特尔等芯片厂商,Rambus 75% 以上的收入来自于数据中心和边缘计算产品销售。

  从市场来说,人工智能/机器学习越来越多地应用于各个领域。预计到 2025 年,超过 25% 的服务器将用于人工智能领域,AI 芯片市场将达到 100 亿美元。

  2025 年,全球数据使用量将达到 175ZB,年均复合增长率达 35%,服务器整体年增长率为 8%。苏雷称,Rambus 也将致力于使数据传输更快、更安全。

  相对于 GDDR 显存,HBM 有着高带宽的特性,是数据密集型应用内存和数据处理瓶颈的解决方案之一。

  本次 Rambus HBM3 IP 的推出,将再次推动 HBM 产品性能的提升,推动人工智能、高性能计算等应用发展。

免责声明:本文仅代表作者个人观点,与每日科技网无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。

本网站有部分内容均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责,若因作品内容、知识产权、版权和其他问题,请及时提供相关证明等材料并与我们联系,本网站将在规定时间内给予删除等相关处理.