传媒行业专题研究:VIDU-国内AI视频生成模型新突破

2024-05-10 08:40:05 和讯  华泰证券朱珺/吴珺
  全球AI 大模型持续迭代,持续看好视频等多模态发展前景今年以来,全球AI 大模型端都持续迭代升级,包括海外的Sora、Llama3等,国内的Kimi、昆仑天工AI、阶跃星辰等。4 月27 日,北京生数科技有限公司联合清华大学发布了中国首个长时长、高一致性、高动态性视频大模型Vidu。行业的发展进度有望不断催化传媒相关板块的发展,我们看好:1)AI 视频大模型依赖多样化训练数据,高质量视频素材库价值凸显;2)AI 大模型助力应用场景发展。我们推荐:昆仑万维、光线传媒、捷成股份、值得买。其他产业链标的包括华策影视、中文在线、中广天择、掌阅科技等。
  Vidu:国内AI 视频生成模型新突破
  Vidu 采用了团队原创的Diffusion 与Transformer 融合的架构U-ViT,能够一键生成长达16 秒、分辨率达到1080P 的高清视频内容,其拥有丰富的想象力,能够模拟真实物理世界,并具备多镜头生成、时空一致性高等特点。
  核心团队来源于清华大学人工智能团队,首席科学家为清华人工智能研究院副院长朱军。公司的多模态大模型为全栈自研,能够融合文本、图像、3D、视频等多模态信息。除文生视频外,公司在文生图、3D 生成等多模态能力上均有所造诣。
  Vidu 快速进化,与Sora 差距不断缩小
  2024 年1 月,生数团队实现4 秒视频的生成,已可以达到Pika、Runway的效果,至3 月底实现8 秒视频生成,4 月实现16 秒视频生成,在3 个月内生成时长提升至4 倍,且据4 月27 日中关村论坛中生数领军人朱军的发言,Vidu 会以更快的速度迭代,与Sora 差距将越来越小。Vidu 生成视频的运动幅度较大。除Sora 外,目前文/图生视频较难做到让人物做出复杂动作,因此为了保证画面畸变最小,视频生成的策略为选择小幅度的运动,较难设计复杂动作,难以处理场景和人物的一致性问题。Vidu 在保证了时空一致性的前提下运动幅度较大。分辨率赶上第一梯队,但仍为固定比例尺寸。
  Vidu 模型使用U-ViT 架构,多模态、效果好、成本低在U-ViT 前,Diffusion 模型中的主流主干(backbone)一直为基于CNN 的U-Net。U-ViT 是生数科技团队设计的一种简单通用的、基于ViT 的架构,使用Diffusion 生成图像,打响了扩散模型中CNN 被Transformer 取代的第一枪。模型首先对输入图像进行分割处理(分割为patch),与时间和条件一道表示为token 后通过Embedding 层,随后经过Transformer Block 后输出为token,并通过一个线性层转为图块,最后通过一个可选的3X3 卷积层输出为最终结果。此外,U-ViT 成本优势大幅领先,主要得益于ViT 架构的训练成本较低。
  风险提示:竞争加剧,模型发展进度低于预期,政策监管风险等。
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
(责任编辑:王丹 )

   【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。

看全文
写评论已有条评论跟帖用户自律公约
提 交还可输入500

最新评论

查看剩下100条评论

有问必答- 持牌正规投资顾问为您答疑解惑

    热门阅读

      和讯特稿

        推荐阅读

          【免责声明】本文仅代表作者本人观点,与和讯网无关。和讯网站对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。