Step-Video-T2V

4个月前更新 4.8K 00

工具介绍:Step-Video-T2V是一款由阶跃星辰与吉利汽车联合开源的文本生成视频大模型,支持中英文输入,基于 Video-VAE 与 DiT 架构,具备 300 亿参数,最长可生成 204 帧高质量视频。模型引入 DPO 偏好优化,提升画面一致性与真实感,适用于影视创作、教育内容、游戏设计与 AI 多模态研究等场景,支持本地部署与在线体验。

收录时间:
2025-02-28

Step-Video-T2V简介

Step-Video-T2V是什么?

Step-Video-T2V是由阶跃星辰与吉利汽车联合开源发布的一款文本生成视频(Text-to-Video, T2V)大模型,具备 300 亿参数,支持中英文提示词输入,能够生成最长 204 帧、分辨率高达 992×544 的高质量视频。该模型采用 Video-VAE 深度压缩结构与 DiT(Diffusion Transformer)架构,结合 Flow Matching 和 DPO(Direct Preference Optimization)优化技术,在生成效率、画面一致性与动态表现方面达到当前开源领域的领先水平。

Step-Video-T2V 已在 GitHub 和 Hugging Face 上开源,支持本地部署与在线体验,广泛适用于 AI 创作、影视预演、教育内容生成、游戏原型设计等场景。

Step-Video-T2V GIthub地址: https://github.com/stepfun-ai/Step-Video-T2V

Step-Video-T2V

Step-Video-T2V的主要功能特点

  • 文本生成高质量视频。支持中英文提示词输入,自动生成与文本语义一致的视频;最长支持 204 帧,分辨率最高可达 992×544;适用于创意短片、AI 剧情演示、教育内容等多种场景。
  • 强大的模型架构。拥有 300 亿参数,基于 Video-VAE + DiT(Diffusion Transformer) 架构;采用 16×16 空间压缩 + 8× 时间压缩,大幅提升训练与推理效率;支持 3D 全注意力机制,增强视频的动态表现与细节还原。
  •  DPO偏好优化。引入 Direct Preference Optimization(DPO),结合人类偏好微调模型;显著提升视频的流畅性、一致性与真实感,减少跳帧与伪影。
  • 多语言与跨模态支持。支持中英双语文本输入;可与图像生成模型(如 Step-Video-TI2V)联动,支持图生视频等多模态任务。
  • 开源与可部署性强。完全开源,基于 MIT 协议,支持商用与二次开发;提供 Hugging Face 模型权重与 GitHub 推理代码,支持本地部署与多卡并行运行;可通过跃问视频平台在线体验生成效果。

适用场景

  • 影视与短视频创作:快速生成剧情片段、分镜草图,辅助创意表达
  • 教育与培训内容:生成教学动画、实验演示,提升课程可视化
  • 游戏与虚拟世界设计:构建角色行为、场景动画原型
  • 广告与品牌传播:根据文案生成创意视频,提升营销效率
  • AI 多模态研究:用于文本生成视频的模型训练与评估 

一句话总结:Step-Video-T2V 是一款领先的开源文本生成视频大模型,支持中英文输入,生成高质量、动态自然的视频内容,适用于多种创作与工业应用场景。 

数据评估

Step-Video-T2V浏览人数已经达到4.8K,如你需要查询该站的相关权重信息,可以通过第三方来进行查询,比如爱站、5118数据、chinaz等;更多网站价值评估因素如:该网站的访问速度、搜索引擎收录以及索引量、用户体验等;当然要评估一个站的价值,最主要还是需要根据您自身的需求以及需要,一些确切的数据则需要找该网站的站长进行洽谈提供。如该站的IP、PV、跳出率等!

关于Step-Video-T2V特别声明

本站新媒派提供的该工具内容都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由新媒派实际控制,在2025年2月28日 上午9:31收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,新媒派不承担任何责任。

与Step-Video-T2V相关工具

YAYI2

YAYI2

YAYI2(雅意2)是中科闻歌推出的新一代开源大语言模型,支持中文、英语等 10 多种语言。基于 Transformer 架构,参数规模达到 30B。YAYI2 采用 2 万亿 Tokens 的高质量语料进行预训练,并结合人类反馈强化学习,确保模型与人类价值观对齐。其多模态交互功能支持图文互生成、PDF 解析等。YAYI2 广泛应用于媒体宣传、舆情分析、政务治理、金融分析等领域,为企业提供 AI 辅助工具和知识库问答系统。
Waver 1.0

Waver 1.0

Waver 1.0是 FoundationVision 推出的下一代通用视频生成基础模型,基于 Rectified Flow Transformer 架构,统一支持文本生成视频(T2V)、图像生成视频(I2V)与文本生成图像(T2I)。最高可生成 1080p 高分辨率视频,分辨率、宽高比与时长(2–10 秒)灵活可调;在 T2V 与 I2V 榜单均跻身前三,画质、运动幅度与时间一致性媲美商用方案。支持可控风格与质量、APG 伪影优化及 Cascade Refiner 高效升采样,适用于影视创意、游戏动画、教育科研等多场景。

暂无评论

您必须登录才能参与评论!
立即登录
none
暂无评论...