登录
首页 >  科技周边 >  业界新闻

中科大字节联合发布MoGA长视频模型

时间:2025-11-22 21:27:34 146浏览 收藏

**中国科大与字节跳动联合发布MoGA长视频模型,引领国产AI技术新突破!** 该模型采用创新MoGA(Modular Global Attention)架构,突破了传统视频生成模型在时长和质量上的限制,能够直接生成分钟级、480p分辨率、24fps的高质量视频,并支持多镜头场景切换,展现出强大的视觉叙事能力。MoGA模型有效解决了长序列建模难题,降低算力需求,使生成复杂、连续视频内容成为可能。这一成果标志着我国在生成式人工智能领域取得了重大进展,有望广泛应用于影视制作、广告创意等领域,助力中国在长视频生成赛道上跻身世界领先行列。

中国科学技术大学联合字节跳动即将推出一款具有划时代意义的端到端长视频生成模型,标志着我国在生成式人工智能领域的重大技术突破。该模型可直接输出时长以分钟计、分辨率达480p、帧率为24fps的高质量视频,并具备多镜头场景切换能力,展现出强大的视觉叙事连贯性。

这一成果的核心在于其原创性算法架构——MoGA(Modular Global Attention),这是一种专为长序列建模设计的新型注意力机制。针对传统方法在处理长时间视频时面临的上下文扩展困难与计算资源消耗过大的问题,MoGA通过结构化优化实现了对长达580K token上下文的有效建模,在显著降低算力需求的同时,使生成复杂、连续视频内容成为现实。

中国科大与字节发布 MoGA 长视频生成模型

据研发团队介绍,以往大多数视频生成模型受限于显存容量和计算效率,仅能产出数秒级的短视频片段或GIF动画。而得益于MoGA的强大建模能力,新模型能够“一气呵成”地生成包含多个镜头转换、情节衔接自然的完整“微型电影”,极大提升了生成视频的时间长度与内容丰富度。

值得一提的是,MoGA具备出色的模块化设计和系统兼容性,可无缝对接FlashAttention、xFormers、DeepSpeed等主流高效计算库,进一步提升训练速度与推理性能。这不仅增强了其科研价值,也为实际产业应用铺平道路,未来有望广泛应用于影视制作、广告创意、游戏动画以及虚拟数字人内容生成等多个高附加值场景。

在全球范围内,尽管OpenAI、Pika、Runway等企业已在短视频生成方向取得进展,但此次由中国科大与字节跳动合作推出的系统,被视为国内首个真正实现分钟级高质量视频生成的技术方案。其在算法创新、运行效率与可扩展性方面的综合优势,或将助力中国在长视频生成赛道上跻身世界领先行列。

今天关于《中科大字节联合发布MoGA长视频模型》的内容就介绍到这里了,是不是学起来一目了然!想要了解更多关于的内容请关注golang学习网公众号!

相关阅读
更多>
最新阅读
更多>
课程推荐
更多>