登录
首页 >  科技周边 >  业界新闻

书生发布InternVL3.5视觉模型全面升级

时间:2025-09-08 17:59:57 455浏览 收藏

**书生重磅发布!InternVL 3.5视觉模型全系列开源,性能直逼GPT-5和Gemini 2.5 Pro!** 书生近日正式推出全新InternVL 3.5视觉模型系列,涵盖1B到241B共8种规模,全面满足不同应用需求。其中,241B版本在视觉理解任务中表现卓越,各项评测数据表明,其性能已跻身全球前列,紧随GPT-5和Gemini 2.5 Pro之后。InternVL 3.5系列模型已全部开源,并上线Hugging Face平台,方便开发者使用。该系列模型采用级联强化学习、视觉分辨率路由机制和解耦式视觉-语言部署架构等创新技术,显著提升了模型在复杂推理任务中的表现和推理速度,整体推理性能较前代提升最高达16.0%,实测部署速度更是提升了4.05倍。立即体验InternVL 3.5,赋能你的视觉理解应用!

书生近日推出了全新视觉模型系列——InternVL 3.5,涵盖从1B到241B共8种不同规模的版本。

书生发布 InternVL 3.5 最新视觉全系列模型

根据多项评测数据显示,InternVL 3.5 中最大规模的241B模型在视觉理解任务中的表现仅次于商用模型 GPT-5 和 Gemini 2.5 Pro,位居前列。

书生发布 InternVL 3.5 最新视觉全系列模型

书生发布 InternVL 3.5 最新视觉全系列模型

目前,该系列全部模型均已开源并上线 Hugging Face 平台:

https://huggingface.co/collections/OpenGVLab/internvl35-68ac87bd52ebe953485927fb

模型核心技术创新包括:

  • 级联强化学习(Cascade Reinforcement Learning, Cascade RL):结合离线强化学习与在线强化学习的双阶段训练策略,提升模型收敛稳定性与对齐精度,显著增强复杂推理能力,在 MMMU、MathVista 等高难度任务上表现突出。
  • 视觉分辨率路由机制(Visual Resolution Router, ViR):支持动态调节视觉 token 的输入分辨率,灵活平衡计算开销与识别精度,提升视觉理解效率。
  • 解耦式视觉-语言部署架构(Decoupled Vision-Language Deployment, DvD):将视觉编码器与语言解码器分离部署至不同 GPU 设备,优化资源分配,大幅提高推理吞吐速度。

整体推理性能相较前代提升最高达 16.0%,并在实际部署中实现比 InternVL3 快 4.05 倍的推理速度

文中关于的知识介绍,希望对你的学习有所帮助!若是受益匪浅,那就动动鼠标收藏这篇《书生发布InternVL3.5视觉模型全面升级》文章吧,也可关注golang学习网公众号了解相关技术文章。

相关阅读
更多>
最新阅读
更多>
课程推荐
更多>