登录
首页 >  科技周边 >  人工智能

引入长思维链!微信基于阿里千问大模型搞出个翻译版o1

时间:2025-01-22 09:34:14 171浏览 收藏

本篇文章向大家介绍《引入长思维链!微信基于阿里千问大模型搞出个翻译版o1》,主要包括,具有一定的参考价值,需要的朋友可以参考一下。

微信AI团队最新研究成果DRT-o1:赋予大型语言模型(LLM)长链思维能力,显著提升机器翻译效果!该研究巧妙地将长链思维(CoT)应用于神经机器翻译(MT),尤其在处理文学作品中复杂的比喻和隐喻时,展现出显著优势。

DRT-o1的核心在于其创新的数据合成方法。研究团队并非直接训练模型进行长链思维,而是构建了一个多智能体框架,模拟人类翻译过程中的思考和迭代改进。该框架包含三个智能体:翻译者、顾问和评估者,它们协同工作,逐步完善翻译结果。 这三个智能体通过迭代式地进行词语级翻译、初步翻译和翻译完善,最终生成包含详细思考过程的翻译样本。为了提高样本的可读性和流畅性,研究人员还利用GPT-4o对生成的文本进行润色。

图片

这项研究的关键突破在于:

  • 针对性数据选择: 并非所有翻译场景都需要长链思维。DRT-o1专注于处理那些需要深入理解语境和文化内涵才能准确翻译的文本,例如包含比喻和隐喻的文学作品。研究人员从古腾堡计划中筛选出大量包含比喻或隐喻的句子,并通过Qwen2.5-72B-Instruct模型进行筛选,最终得到用于训练的数据集。

  • 多智能体协同翻译: 该框架模拟了人类翻译过程中反复推敲、寻求改进的过程,生成包含详细思考步骤的翻译样本,这与以往直接训练模型进行长链思维的方法截然不同。

  • GPT-4o优化: 利用GPT-4o对生成的翻译样本进行润色,确保最终数据的质量和流畅性。

图片

图片

图片

实验结果表明,基于该数据集训练的DRT-o1模型(使用Qwen2.5-7B-Instruct和Qwen2.5-14B-Instruct作为基础模型)在文学翻译任务上取得了显著的性能提升,在BLEU、CometKiwi和CometScore等多个评估指标上均优于基线模型。例如,DRT-o1-7B的BLEU分数比Qwen2.5-7B-Instruct高出8.26。

图片

图片

图片

论文信息:

DRT-o1的研究为提升LLM在复杂翻译任务中的性能提供了新的思路,也为未来研究提供了宝贵的参考价值。

今天带大家了解了的相关知识,希望对你有所帮助;关于科技周边的技术知识我们会一点点深入介绍,欢迎大家关注golang学习网公众号,一起学习编程~

相关阅读
更多>
最新阅读
更多>
课程推荐
更多>