登录
首页 >  科技周边 >  人工智能

清华北大联手GPDiT推出视频生成模型

时间:2025-06-03 22:48:22 158浏览 收藏

GPDiT(Generative Pre-trained Autoregressive Diffusion Transformer)是由北京大学、清华大学、StepFun公司及中国科学技术大学联合研发的创新视频生成模型。该模型结合了扩散模型和自回归模型的优势,通过自回归方法预测未来潜在帧,构建运动动态和语义一致性。GPDiT采用轻量级因果注意力机制降低计算开销,并引入无参数的旋转基时间条件策略,提升了时间信息编码效率。该模型在视频生成、表示学习及少量样本学习等任务中表现卓越,适用于广告、电影、动画等领域的视频制作与编辑。

GPDiT是什么

GPDiT(Generative Pre-trained Autoregressive Diffusion Transformer)是由北京大学、清华大学、StepFun公司以及中国科学技术大学共同研发的一种创新视频生成模型。该模型融合了扩散模型与自回归模型的优点,通过自回归方法来预测未来潜在帧,从而自然地构建运动动态和语义一致性。GPDiT还采用了轻量级因果注意力机制以降低计算开销,并提出了一种无需参数的旋转基时间条件策略,这有助于更有效地编码时间信息。GPDiT在视频生成、视频表示学习以及少量样本学习等多个任务上都展现了卓越的表现,体现了其在多种视频建模任务中的灵活性与适用性。

GPDiT— 清华北大联合阶跃星辰等推出的视频生成模型GPDiT的主要特点

  • 高品质视频生成:能够创建具有高时间一致性和运动连贯性的长序列视频。
  • 视频表示学习:借助自回归建模与扩散过程,学习视频的语义与动态表示,适用于下游任务。
  • 少量样本学习:能迅速适应各种视频处理任务,例如风格变换、边缘检测等。
  • 多任务处理:支持多种视频处理任务,包括灰度转换、深度估算、人物识别等。

GPDiT的核心技术

  • 自回归扩散架构:利用自回归方式预测未来的潜在帧,从而自然地模拟运动动态和语义一致性。
  • 轻量化因果注意力:引入轻量级因果注意力机制,在训练过程中避免干净帧间的注意力计算,减少了计算负担,同时保持生成质量。
  • 旋转基时间条件方案:提出一种无需参数的旋转基时间条件策略,将噪声注入过程重新定义为数据和噪声分量在复平面上的旋转操作,去除了adaLN-Zero及其相关参数,提高了时间信息编码效率。
  • 连续潜在空间建模:在连续潜在空间内进行建模,提升了生成效果与表示能力。

GPDiT的相关资源

GPDiT的实际应用

  • 视频制作:用于生成高质量视频,应用于广告、电影、动画等领域。
  • 视频编辑:实现风格转换、色彩校正、分辨率增强等功能。
  • 少量样本学习:快速适应人物检测、边缘检测等任务。
  • 内容理解:自动标记、分类并检索视频内容。
  • 创意生成:激发艺术家和设计师的灵感,生成艺术风格视频。

到这里,我们也就讲完了《清华北大联手GPDiT推出视频生成模型》的内容了。个人认为,基础知识的学习和巩固,是为了更好的将其运用到项目中,欢迎关注golang学习网公众号,带你了解更多关于的知识点!

相关阅读
更多>
最新阅读
更多>
课程推荐
更多>