登录
首页 >  科技周边 >  人工智能

阿里云通义开源首个推理步骤评估标准,探索AI推理模型新路径

时间:2025-01-20 16:18:57 164浏览 收藏

积累知识,胜过积蓄金银!毕竟在科技周边开发的过程中,会遇到各种各样的问题,往往都是一些细节知识点还没有掌握好而导致的,因此基础知识点的积累是很重要的。下面本文《阿里云通义开源首个推理步骤评估标准,探索AI推理模型新路径》,就带大家讲解一下知识点,若是你对本文感兴趣,或者是想搞懂其中某个知识点,就请你继续往下看吧~

阿里云通义开源全新数学推理模型Qwen2.5-Math-PRM,其72B和7B版本在性能上均显著超越同类开源过程奖励模型。尤其在识别推理错误步骤方面,7B版本的Qwen2.5-Math-PRM甚至超越了闭源GPT-4o。此外,通义团队还同步开源了首个步骤级评估标准ProcessBench,用于更全面地评估大模型推理过程中的错误。

阿里云通义开源首个推理步骤评估标准,探索AI推理模型新路径

大模型推理过程中常出现逻辑错误或编造看似合理的步骤。过程奖励模型(PRM)通过评估和反馈每一步行为,帮助模型优化推理策略,从而提升推理能力和可信度。

通义团队创新性地融合了蒙特卡洛估计方法和LLM-as-a-judge技术,构建了一种高效的PRM数据构造方法,并基于Qwen2.5-Math-Instruct模型微调,最终获得了Qwen2.5-Math-PRM模型。该模型在数据利用率和评测性能方面均有显著提升。

阿里云通义开源首个推理步骤评估标准,探索AI推理模型新路径

在GSM8K、MATH、Minerva Math等7个数学基准测试的Best-of-N评测中,Qwen2.5-Math-PRM-7B超越了同尺寸的开源PRM模型,而Qwen2.5-Math-PRM-72B则在整体性能上优于同尺寸的Qwen2.5-Math-RM-72B结果奖励模型。

为了更好地评估模型识别数学推理错误步骤的能力,通义团队推出了ProcessBench评估标准。该标准包含3400个涵盖奥赛难度的数学问题,并由专家标注了逐步推理过程,可全面评估模型的错误识别能力。ProcessBench也已开源。

阿里云通义开源首个推理步骤评估标准,探索AI推理模型新路径

在ProcessBench上的评估结果显示,Qwen2.5-Math-PRM的72B和7B版本均展现出显著优势,7B版本甚至超越了同尺寸的开源PRM模型以及闭源GPT-4o-0806。这充分证明了PRM在提升推理可靠性方面的有效性,并为未来推理过程监督技术的研发提供了新的方向。

好了,本文到此结束,带大家了解了《阿里云通义开源首个推理步骤评估标准,探索AI推理模型新路径》,希望本文对你有所帮助!关注golang学习网公众号,给大家分享更多科技周边知识!

相关阅读
更多>
最新阅读
更多>
课程推荐
更多>