登录
首页 >  科技周边 >  人工智能

英伟达下一代AI卡或用HBM3E

来源:搜狐

时间:2023-06-24 08:11:37 335浏览 收藏

“纵有疾风来,人生不言弃”,这句话送给正在学习科技周边的朋友们,也希望在阅读本文《英伟达下一代AI卡或用HBM3E》后,能够真的帮助到大家。我也会在后续的文章中,陆续更新科技周边相关的技术文章,有好的建议欢迎大家在评论留言,非常感谢!

2023-06-21 05:16:37 作者:老王

据报道,根据DigiTimes报道的 "行业消息",Nvidia对评估SK Hynix的HBM3E样品感兴趣。如果信息是准确的,那么Nvidia用于人工智能和高性能计算应用的下一代计算GPU可能会使用HBM3E内存而不是HBM3。

根据韩国Money Today和Seoul Economic Daily引用的行业消息,Nvidia已经要求SK Hynix提供HBM3E的样品,以评估其对GPU性能的影响。

英伟达下一代AI卡或用HBM3E

SK Hynix即将推出的HBM3E内存将把数据传输率从目前的6.40 GT/s提高到8.0 GT/s。这一改进将使每堆栈带宽从819.2GB/s提升到1TB/s。然而,围绕HBM3E与现有HBM3控制器和接口的兼容性存在不确定性,因为SK海力士还没有披露新技术在这方面的信息。Nvidia和其他开发人员需要评估技术来计算AI和HPC所需的要求,在任何场合下。

SK海力士似乎打算在2023年下半年开始对其HBM3E存储器进行采样,并计划在2023年底或2024年开始大规模生产。SK Hynix is planning to use its 1b-nanometer manufacturing technology to produce HBM3E memory, which is the company's fifth-generation 10-nanometer DRAM node.。这种制造工艺目前被用于生产DDR5-6400 DRAM。LPDDR5T内存芯片将采用相同的技术来生产,以用于高性能和低功耗应用。

Nvidia的哪些计算GPU将使用HBM3E内存还有待观察,尽管该公司很可能在其2024年到期的下一代处理器中使用这种新型内存。我们无法确定这是对Hopper GH100计算GPU进行改进,还是一种全新的东西。

SK海力士是唯一一家提供HBM3内存的公司,目前在HBM内存市场上掌握超过50%的份额。它也将是HBM3的独家制造商,至少在最初。

Yole Development,一家市场研究公司,预计HBM内存市场将大幅扩张,因为它比其他类型的DRAM具有独特的带宽优势。预计该公司的市场价值将从2023年的7.05亿美元增长到2027年的13.24亿美元,近乎翻倍。

好了,本文到此结束,带大家了解了《英伟达下一代AI卡或用HBM3E》,希望本文对你有所帮助!关注golang学习网公众号,给大家分享更多科技周边知识!

声明:本文转载于:搜狐 如有侵犯,请联系study_golang@163.com删除
相关阅读
更多>
最新阅读
更多>
课程推荐
更多>