事件:2 月15 日,OpenAI 发布Sora AI 视频生成模型,文本生成视频模型迎来重大突破。此次发布的Sora 模型能够根据用户的文本描述生成长达60 秒、1080P 高质量视频,其中包含精细复杂的场景、生动的角色表情以及复杂的镜头运动。
模型亮点:1)视频生成时间长达1 分钟,大幅领先其他AI 视频生成模型。2)单视频多角度镜头。3)3D 一致性:Sora 可以生成摄像机动态运动的视频。随着摄像机的移动和旋转,人物和场景元素在3D 空间中的移动会保持一致。4)Sora 可以向前向后拓展视频,连接视频。5)模拟数字世界:Sora 还能够模拟人工过程,例如视频游戏。
Sora 模型的技术实现特点:Sora 基于扩散模型,并且在其中使用了Transformer 架构,将视频和图像分解为Patch 小数据单元,这些Patch类似于GPT 中的Token,用于在Transformer 模型中进行训练和生成;同时OpenAI 将DALL·E3 引入到Sora 里,使得Sora 能够精准地还原用户的文本提示,生成高质量的长视频。
应用展望:随着文生图、图片对话技术的成熟,文生视频可能成为多模态大模型下一步发展的方向。该技术有望极大地降低短剧制作的成本,并且会进一步向影视、自媒体、游戏等领域渗透,提高视频创作效率等。
风险提示:行业竞争加剧、金融科技发展不及预期。
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
(责任编辑:王丹 )
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
最新评论