登录
首页 >  科技周边 >  业界新闻

微软突破数据中心散热:微流体+AI精准降温

时间:2025-10-02 17:30:47 130浏览 收藏

**微软突破数据中心散热瓶颈:微流体+AI精准降温,能效提升显著** 微软近日宣布在AI芯片散热领域取得重大突破,成功研发出“芯内微流体冷却系统”。该技术颠覆传统冷板散热方案,将冷却液直接引入硅芯片内部,借助AI智能调控冷却路径,实现对发热源的精准控温。实测结果显示,在多种负载条件下,该技术可使GPU芯片的最大温升降低达65%,显著优化数据中心的整体能效比(PUE)。通过模拟Microsoft Teams视频会议服务场景,验证了该技术在高并发和突发任务下的出色温控表现。虽然大规模应用仍面临诸多挑战,如微流道制造、封装工艺等问题,但这项技术无疑为解决数据中心散热难题提供了新的思路,有望推动数据中心向更高可持续性发展。

感谢网友 Snailwang 提供的线索!

9 月 24 日讯,微软于昨日(9 月 23 日)发布技术博客,宣布在 AI 芯片散热领域取得重大突破——成功研发出“芯内微流体冷却系统”,其散热效率最高可达当前主流冷板技术的三倍。

微软攻克数据中心芯片散热瓶颈:微流体 + AI 精准降温

注:冷板属于传统液冷方案,通过将带有液体通道的金属板贴合在芯片表面进行导热。但由于需经过封装层、焊料层等多重材料,热量传导受到显著限制。

相比之下,芯内微流体冷却技术则彻底摒弃这些“中间隔热层”,将冷却液直接引入硅芯片内部,使其与发热源近距离接触,并借助 AI 实现对冷却路径的智能调控,真正实现从源头控温。

研究团队利用 AI 模型分析芯片运行时的动态热图谱,精准引导冷却液流向温度最高的区域。实测结果显示,在多种负载条件下,该技术可使 GPU 芯片的最大温升降低达 65%,同时显著优化数据中心的整体能效比(PUE)。这不仅大幅减少了冷却系统的能耗,也减轻了对电力基础设施的压力,推动数据中心向更高可持续性迈进。

微软攻克数据中心芯片散热瓶颈:微流体 + AI 精准降温

在测试中,微软模拟了实际运行 Microsoft Teams 视频会议服务的服务器场景,验证了该技术在高并发和突发任务下的出色温控表现。这意味着未来数据中心可在确保安全的前提下对芯片进行超频操作,从而提升计算性能和响应可靠性,同时避免为应对短时峰值而部署大量冗余硬件,有效节约成本。

微软攻克数据中心芯片散热瓶颈:微流体 + AI 精准降温

然而,这项技术的大规模应用仍面临多项工程难题。其中最大的挑战在于如何在不损害硅基结构强度的前提下,制造出兼具高流量与高精度的微流道系统。此外,还包括防止液体泄漏的封装工艺、冷却介质配方的持续优化,以及与现有芯片制造流程的兼容集成等问题,尚需进一步攻关。

到这里,我们也就讲完了《微软突破数据中心散热:微流体+AI精准降温》的内容了。个人认为,基础知识的学习和巩固,是为了更好的将其运用到项目中,欢迎关注golang学习网公众号,带你了解更多关于AI,数据中心,能效,散热,微流体冷却的知识点!

相关阅读
更多>
最新阅读
更多>
课程推荐
更多>