HBM3E
业界最快、容量最高的HBM,推动生成式人工智能创新
业界最快、容量最高的HBM,推动生成式人工智能创新
生成式人工智能为新形式的创造力和表达打开了一个世界, 就像上面的图片, 采用大语言模型(LLM)进行训练和推理. 计算和内存资源的利用会影响部署时间和响应时间. Micron HBM3E提供了更高的内存容量,可以提高性能并减少CPU负载,从而在推理ChatGPT等llm时实现更快的训练和更灵敏的查询™.
人工智能为商业、IT、工程、科学、医学等领域带来了新的可能性. 随着更大的人工智能模型被部署来加速深度学习, 维护计算和内存效率对于解决性能问题非常重要, 确保所有人受益的成本和权力. 美光HBM3E提高了内存性能,同时注重能源效率,提高了每瓦性能,从而缩短了培训GPT-4等llm的时间.
科学家们, 研究人员, 工程师们面临的挑战是发现气候建模的解决方案, 治疗癌症和可再生和可持续能源. 高性能计算(HPC)通过执行非常复杂的算法和使用大型数据集的高级模拟来加快发现时间. Micron HBM3E提供更高的内存容量,并通过减少跨多个节点分发数据的需求来提高性能, 加快创新步伐.
美光通过HBM3E扩展了我们数据中心沙巴体育结算平台组合的行业领先性能. 提供更快的数据速率, 改善热响应, 与上一代相比,在相同的封装面积内,单片芯片密度提高了50%.
拥有先进的CMOS创新和行业领先的1β工艺技术, Micron HBM3E提供更高的内存带宽,超过1.2TB/s.1
内存容量增加50%2 每8高24GB立方体,HBM3E使训练具有更高的精度和准确性.
美光设计了一种节能的数据路径,可以降低热阻抗,使其大于2.性能/瓦特提高5倍3 与上一代相比.
增加内存带宽,提高系统级性能, HBM3E减少了30%以上的训练时间4 and allows >50% more queries per day.5,6
美光HBM3E是最快、容量最高的高带宽内存,可推动人工智能创新. 一个8高的24GB立方体,提供超过1.2TB/s带宽和卓越的电源效率. 美光是您在内存和存储创新方面值得信赖的合作伙伴.
4 基于Micron内部模型的参考 ACM出版,与当前的运输平台(H100)相比
5 基于美光内部模型,参考伯恩斯坦的研究报告, 英伟达(NVIDIA):用自下而上的方法来评估ChatGPT的机会, 2月27日, 2023,与当前的运输平台(H100)相比
6 基于商用H100平台和线性外推的系统测量
1.2tb /s带宽, 美光的8-high 24GB HBM3E采用先进的1β工艺节点,提供卓越的功率效率.
Micron's Girish Cherussery, Sr. Director, 高性能存储器, 与来自Six Five的帕特里克·穆尔黑德和丹尼尔·纽曼一起讨论高带宽内存(HBM)和美光最新的HBM3E沙巴体育结算平台.