登录
首页 >  科技周边 >  业界新闻

阿里云百炼上线Qwen2.5-Turbo模型,可支持100万超长上下文

时间:2025-01-10 11:45:09 424浏览 收藏

在科技周边实战开发的过程中,我们经常会遇到一些这样那样的问题,然后要卡好半天,等问题解决了才发现原来一些细节知识点还是没有掌握好。今天golang学习网就整理分享《阿里云百炼上线Qwen2.5-Turbo模型,可支持100万超长上下文》,聊聊,希望可以帮助到正在努力赚钱的你。

阿里云百炼重磅推出Qwen2.5-Turbo模型,支持百万级超长上下文!该模型在多个长文本评测集上性能超越GPT-4,现已正式上线阿里云百炼平台,所有用户均可通过API调用。

阿里云百炼上线Qwen2.5-Turbo模型,可支持100万超长上下文

Qwen2.5-Turbo在长文本检索任务中准确率高达100%,并在RULER评测集上取得93.1分,优于GPT-4。 在LV-Eval和LongBench-Chat等更贴近实际应用场景的长文本任务中,其表现也显著超越了GPT-4o-mini。此外,在MMU和LiveBench等短文本基准测试中,Qwen2.5-Turbo同样表现出色,大幅领先同等上下文长度的开源模型。

阿里云百炼上线Qwen2.5-Turbo模型,可支持100万超长上下文

阿里云百炼上线Qwen2.5-Turbo模型,可支持100万超长上下文

Qwen2.5-Turbo:长短文本任务全能高手

在推理速度方面,得益于稀疏注意力机制的应用,Qwen2.5-Turbo将处理百万级上下文时的首字返回时间缩短至68秒,较之前提升了4.3倍。

阿里云百炼上线Qwen2.5-Turbo模型,可支持100万超长上下文

Qwen2.5-Turbo:速度与效率的完美结合

Qwen2.5-Turbo可广泛应用于长篇小说分析、大型代码辅助、多篇论文综合解读等领域,例如一次性处理10部长篇小说、150小时的演讲稿或3万行代码。为庆祝上线,阿里云百炼还为用户提供1000万tokens的免费额度。

研发团队表示,长文本处理仍面临诸多挑战,未来将持续改进模型,提升推理效率并研发更强大、更长上下文长度的模型。

目前,阿里云百炼平台已集成Qwen、Llama、Flux等200多款国内外主流大模型,提供模型调用、微调训练和RAG应用构建等多种服务,已服务超过30万家企业和机构,包括一汽、金山、哈啰集团和国家天文台等。 百万tokens仅需0.3元,性价比超高!

到这里,我们也就讲完了《阿里云百炼上线Qwen2.5-Turbo模型,可支持100万超长上下文》的内容了。个人认为,基础知识的学习和巩固,是为了更好的将其运用到项目中,欢迎关注golang学习网公众号,带你了解更多关于的知识点!

相关阅读
更多>
最新阅读
更多>
课程推荐
更多>