登录
首页 >  科技周边 >  业界新闻

英伟达开源全模态模型OmniVinci

时间:2025-11-18 09:01:02 481浏览 收藏

编程并不是一个机械性的工作,而是需要有思考,有创新的工作,语法是固定的,但解决问题的思路则是依靠人的思维,这就需要我们坚持学习和更新自己的知识。今天golang学习网就整理分享《英伟达开源全模态模型 OmniVinci》,文章讲解的知识点主要包括,如果你对科技周边方面的知识点感兴趣,就不要错过golang学习网,在这可以对大家的知识积累有所帮助,助力开发能力的提升。

英伟达研究团队近日推出了一款名为 OmniVinci 的全模态理解模型,该模型在关键的全模态基准测试中表现卓越,领先当前最优模型高达19.05分。更令人瞩目的是,OmniVinci 仅依赖其六分之一的训练数据量,便实现了这一突破性成果,充分展现了其在数据利用效率和模型性能上的双重优势。

OmniVinci 致力于构建一个能同时处理视觉、音频与文本信息的通用人工智能系统,目标是让机器具备类似人类的多感官感知能力,从而更全面地理解和解析现实世界中的复杂场景。为达成此目标,研究团队设计了全新的架构方案与数据处理策略,通过构建统一的全模态潜在空间,实现跨模态信息的深度融合与协同理解。

在 Dailyomni 基准评测中,OmniVinci 显著优于 Qwen2.5-Omni:在音频理解任务 MMAR 上提升1.7分,在视觉理解任务 Video-MME 上高出3.9分。值得注意的是,其训练所使用的 Token 总量仅为0.2万亿,远低于 Qwen2.5-Omni 所需的1.2万亿,表明 OmniVinci 的训练效率达到后者的6倍之高。

该模型的核心技术突破在于其全模态对齐机制,包含三大关键组件:OmniAlignNet 模块、时间嵌入分组(TEG)以及约束旋转时间嵌入(CRTE)。其中,OmniAlignNet 充分利用视觉与音频信号之间的互补特性,增强两种模态间的联合学习与对齐效果;TEG 通过对音视频信号按时间片段进行分组处理,有效建模时序依赖关系;而 CRTE 则进一步优化了时间轴上的精确对齐,确保模型能够准确捕捉事件发生的绝对时间位置。

英伟达开源全模态理解模型 OmniVinci

研究团队采用了两阶段训练范式:第一阶段专注于各单一模态的能力培养,第二阶段则进行全模态联合训练,逐步提升模型的综合理解水平。此外,在隐式全模态学习方面,研究人员借助现有的视频问答数据集,显著增强了模型对音视频内容的协同理解能力。

源码地址:点击下载

终于介绍完啦!小伙伴们,这篇关于《英伟达开源全模态模型OmniVinci》的介绍应该让你收获多多了吧!欢迎大家收藏或分享给更多需要学习的朋友吧~golang学习网公众号也会发布科技周边相关知识,快来关注吧!

相关阅读
更多>
最新阅读
更多>
课程推荐
更多>