美光开始向客户提供HBM4内存样品 —36 GB容量和2 TB/s带宽
美光本周宣布,该公司已开始向主要客户运送其下一代 HBM4 内存的样品。适用于下一代 AI 和 HPC 处理器的新内存组件具有 36 GB 的容量和 2 TB/s 的带宽。
美光的首批样品是 12 层高器件,具有 36 GB 内存,具有 2048 位宽接口以及约 7.85 GT/s 的数据传输速率。这些样品依赖于采用该公司 1ß (1-beta) DRAM 工艺技术制造的 24GB DRAM 器件,以及台积电使用其 12FFC+(2nm 级)或 N5(5nm 级)逻辑工艺技术生产的逻辑基础芯片。
美光最新一代 HBM3E 内存还提供高达 36 GB 的容量,但它具有 1024 位接口和高达 9.2 GT/s 的数据传输速率,因此可提供高达 1.2 TB/s 的峰值带宽。也就是说,Micron 的新型 HBM4 可以拥有超过 60% 的带宽以及高达 20% 的能源效率。此外,Micron 的 HBM4 还包括内置的内存测试功能,以简化合作伙伴的集成。
美光是业内第一家正式开始与合作伙伴一起提供 HBM4 内存模块样品的 DRAM 制造商,但预计三星和 SK 海力士等其他制造商将很快迎头赶上。美光和其他内存制造商打算在 2026 年的某个时候开始量产 HBM4,届时领先的 AI 处理器开发商将开始量产其下一代处理器。
预计 Nvidia 代号为 Vera Rubin 的数据中心 GPU 将在 2026 年底成为首批采用 HBM4 的产品之一,尽管它们肯定不会是唯一使用 HBM4 的 AI 和 HPC 处理器。
“美光 HBM4 的性能、更高的带宽和行业领先的能效证明了我们的内存技术和产品领先地位,”美光高级副总裁兼云内存业务部总经理 Raj Narasimhan 说。“在 HBM3E 部署取得的非凡里程碑的基础上,我们将继续通过 HBM4 和我们强大的 AI 内存和存储解决方案产品组合推动创新。我们的 HBM4 生产里程碑与客户的下一代 AI 平台就绪情况保持一致,以确保无缝集成和量产。

加入微信
获取电子行业最新资讯
搜索微信公众号:EEPW
或用微信扫描左侧二维码