登录
首页 >  科技周边 >  业界新闻

ThinkingMachinesLab揭示LLM推理真相

时间:2025-09-11 18:27:57 484浏览 收藏

Thinking Machines Lab 发布首篇技术博客,揭示了大语言模型(LLM)推理中不确定性的真相。即使在温度设置为 0 的情况下,LLM 的输出仍可能因并行计算策略的动态变化而产生差异。该博客深入分析了浮点数运算的非结合律和并行计算策略对 LLM 推理结果的影响,并提出通过确保所有关键计算内核具备 batch-invariant 特性来解决这一问题。针对 RMSNorm、矩阵乘法和注意力机制等核心组件,团队提出了相应的改进方法,并在 Qwen3-235B-A22B-Instruct-2507 模型上进行了验证,成功实现了 100% 可重复的大模型推理输出,为 LLM 的确定性推理提供了新的解决方案。

Thinking Machines Lab 发文,揭示 LLM 推理过程不确定性的真相

由前 OpenAI 首席技术官 Mira Murati 创立的 Thinking Machines Lab 近日发布了其首篇技术博客:《在 LLM 推理中战胜不确定性》("Defeating Nondeterminism in LLM Inference")

Thinking Machines Lab 发文,揭示 LLM 推理过程不确定性的真相

尽管将大语言模型的温度设置为 0,并使用完全相同的输入、模型和硬件,输出结果仍可能出现差异。这篇博客深入探讨了这一现象背后的原因,并提出了解决方案——如何实现 100% 可重复的大模型推理输出。

文章指出,造成这种不确定性的因素主要有两个:

1. 浮点数加法不具备结合律特性(floating-point non-associativity)

即 (a + b) + c 与 a + (b + c) 在浮点运算中可能产生不同结果。由于并行计算时求和顺序不一致,会引入微小数值偏差。不过,作者认为这并非问题的主要根源。

2. 并行计算策略的动态变化(Dynamic Parallelization Strategies)

这是导致输出不一致的核心原因。当 batch size、序列长度或 KV-cache 的状态发生变化时,GPU 内核可能会选择不同的并行执行路径,进而改变计算顺序,最终影响输出结果。

为解决此问题,作者提出必须确保所有关键计算内核(kernel)具备 batch-invariant 特性——无论输入批次大小或序列如何分割,计算过程和结果都应保持完全一致。

针对三大核心组件,团队提出了相应的改进方法:

  • RMSNorm:重构归一化计算流程,保证跨设备和批处理的一致性
  • 矩阵乘法(Matrix Multiplication):采用确定性算法路径,避免因分块策略不同带来的误差
  • 注意力机制(Attention):设计统一的并行化模式,消除 softmax 与 KV-cache 操作中的非确定性

Thinking Machines Lab 发文,揭示 LLM 推理过程不确定性的真相

实验部分,研究团队选用 Qwen3-235B-A22B-Instruct-2507 模型进行测试。在应用上述优化后,连续运行 1000 次相同请求,模型每次输出均完全一致,实现了真正意义上的确定性推理。

终于介绍完啦!小伙伴们,这篇关于《ThinkingMachinesLab揭示LLM推理真相》的介绍应该让你收获多多了吧!欢迎大家收藏或分享给更多需要学习的朋友吧~golang学习网公众号也会发布科技周边相关知识,快来关注吧!

相关阅读
更多>
最新阅读
更多>
课程推荐
更多>