登录
首页 >  科技周边 >  人工智能

o1也会「想太多」?腾讯AI Lab与上海交大揭秘o1模型过度思考问题

时间:2025-01-26 20:37:22 463浏览 收藏

科技周边小白一枚,正在不断学习积累知识,现将学习到的知识记录一下,也是将我的所得分享给大家!而今天这篇文章《o1也会「想太多」?腾讯AI Lab与上海交大揭秘o1模型过度思考问题》带大家来了解一下##content_title##,希望对大家的知识积累有所帮助,从而弥补自己的不足,助力实战开发!


腾讯AI Lab与上海交通大学合作,揭示了类o1大模型的“过度思考”现象,并提出相应的缓解策略。这项研究发表在arXiv上,论文标题为《别想太多:关于类o1大模型过度思考的探讨》(Do NOT Think That Much for 2+3=? On the Overthinking of o1-Like LLMs)。

图片

自OpenAI发布o1模型以来,其强大的逻辑推理能力备受瞩目。o1模型通过模拟人类深度思考,例如自我反思、纠错和探索多种解法等策略,展现了强大的长时间推理能力。然而,随之而来的是“过度思考”的问题:在简单问题上,模型会生成冗长的推理链,浪费计算资源。例如,对于“2+3=?”,o1模型的token消耗远超传统模型。

图片

研究团队分析了QwQ-32B-Preview和Deepseek-R1-Preview等模型的表现,发现它们在超过90%的情况下,第一次尝试就能得到正确答案,后续的推理并不能显著提升准确率。

图片图片

研究人员定义了“独立解答”和两个衡量“过度思考”的指标:产出效率(Outcome Efficiency)和过程效率(Process Efficiency)。产出效率衡量每个解答对最终答案的贡献,过程效率衡量解答中推理策略的多样性。实验结果显示,QwQ和R1模型都存在不同程度的“过度思考”,尤其在简单问题上。

图片图片图片图片图片图片

为了缓解“过度思考”,研究人员提出几种偏好优化方法,实验结果表明,SimPO结合首个正确回答+验算策略能够在保持模型性能的同时,显著减少冗余推理,提高效率。 这项研究为构建更高效的类o1大模型提供了重要的理论基础和实践指导。 未来研究方向包括开发自适应调控策略和更精细的效率评估指标。

论文地址:https://arxiv.org/pdf/2412.21187

好了,本文到此结束,带大家了解了《o1也会「想太多」?腾讯AI Lab与上海交大揭秘o1模型过度思考问题》,希望本文对你有所帮助!关注golang学习网公众号,给大家分享更多科技周边知识!

相关阅读
更多>
最新阅读
更多>
课程推荐
更多>