Gen-3 Alpha是Runway公司开发的一款先进的AI视频生成模型。它能够根据用户的输入(如文本描述、图像或视频片段)创建具有复杂场景变化、多种电影风格和详细艺术指导的高精细视频。
Dream Machine是一款由Luma AI推出的AI视频生成模型,能够直接从文本和图像快速生成高质量的逼真视频。可以在120秒内生成120帧视频,具备流畅的运动、电影摄影和戏剧效果。它理解人物、动物和物体与物理世界的互动,确保视频角色的一致性和物理准确性。
可灵大模型是快手AI团队自研的一款视频生成大模型,采用类似Sora的技术路线,能够生成符合物理规律的大幅度运动视频,模拟真实世界的特性。支持生成长达2分钟的30fps的超长视频,分辨率高达1080p,且支持多种宽高比。2024年6月,快手正式推出了可灵大模型,并在快影App开放邀测体验。
Lumiere是谷歌发布的一个文本到视频扩散模型,于2024年正式发布。这个模型能够直接生成全帧率、低分辨率视频,通过训练海量文本和视频数据,可以将文字描述直接转化为高质量、真实、多样且连贯动作的视频。适用于多种内容创作和视频编辑应用,如图像到视频、视频修复和风格化生成。
Veo 是 Google DeepMind 开发的一种先进的视频生成模型。它能够生成1080p高分辨率、长时长的高质量视频。Veo 支持多种电影和视觉风格,能够准确捕捉文本提示的细微差别,并提供创意控制。这个模型旨在使视频制作更易于访问,并在叙事、教育等领域开启新的可能性。
Vidu 是中国首个长时长、高一致性、高动态性的视频大模型,由生数科技联合清华大学发布。这个模型采用了原创的 U-ViT 架构,融合了 Diffusion(扩散) 与 Transformer 技术,能够一键生成长达 16 秒、分辨率高达 1080P 的高清视频内容。Vidu 不仅能够模拟真实物理世界,还拥有丰富的想象力,具备多镜头生成、时空一致性等特点。这对于视频制作、游戏开发、教育、科研等领域都具有广泛的应用。
Stable Video是由StabilityAI在2023年11月发布的视频生成式大模型。它是一种潜在扩散模型,能够支持文本到视频的生成、图像到视频的生成,以及从单一视角到多视角的3D合成。用户可以通过输入文本或上传图片来生成视频,还可以自定义视频的各种参数,如镜头控制、运动速度等。
追影视频生成是一款基于人工智能技术的视频生成工具。它可以快速生成高质量的视频内容,提供丰富的视频模板和智能编辑功能,让用户能够轻松制作出令人印象深刻的视频作品。由通义实验室-开放视觉-追影团队推出。
PixelDance是由字节跳动开发的一款高动态视频生成模型,它能够根据用户提供的图片和文本描述来生成具有复杂场景和动态效果的视频。这项技术特别在于它结合了图像指令(针对视频片段的首尾帧)和文本指令,使得生成的视频不仅视觉上丰富,而且动作细节丰富,能够展现出高度的动态性。
VideoCrafter2是腾讯推出的一个先进的视频生成模型,它借助深度学习技术,致力于提高视频的视觉质量、动态效果以及概念组合,能够根据用户提供的文本描述生成高质量、流畅的视频作品。
AnimateZero是腾讯AI团队发布的一款AI视频生成模型,通过改进预训练的视频扩散模型(Video Diffusion Models),能够更精确地控制视频的外观和运动,实现从静态图像到动态视频的无缝转换。