Deepmotion

1个月前更新 2.6K 00

工具介绍:DeepMotion是一家专注于使用AI技术进行动作捕捉和3D身体追踪的公司。可以从视频中生成3D动画,并为用户提供一系列解决方案,DeepMotion致力于通过AI技术让数字角色变得栩栩如生,并为用户提供高效、逼真的动画和物理效果生成工具。

收录时间:
2024-05-08

Deepmotion简介

DeepMotion是什么?

DeepMotion是2014年成立于美国加州圣马特奥的AI动作捕捉与3D动画技术公司(前身为Midas Touch Interactive),核心使命是 “让数字人类拥有真实生命力”,致力于通过无标记 AI 算法、深度学习技术,摆脱现有动作捕捉需要大投入的光学动捕棚、穿戴设备,实现“普通视频/文字→3D 数字角色动画”,服务于游戏、影视、元宇宙、教育等行业,合作企业包括三星、英伟达、Epic Games、万代南梦宫等,累计融资275万美元。

Deepmotion

Deepmotion核心产品

1. Animate 3D(视频转3D动画工具)

核心功能是“上传普通视频生成精细化3D骨骼动画”,能够支持视频单人、多人上传,可以自动生成整个身、脸部、指关节的动作,最高支持8K;不需要本地复杂计算,可以在线网页浏览器制作,生成的动画可以导出FBX、GLB、BVH等主流格式文件,支持Unity、Unreal、Blender等目前常用的3D软件等。

2. SayMotion(文字转3D动画工具)

借助自然语言处理技术,用户输入简单动作描述“后空翻+ 挥手”“慢跑中招手”就能实时地自动生成相应的3D动作序列;也可控制自身动态动作细节(如帧数、动作幅度),易于生成动态有趣的动作原型,适应非专业用户的动画制作。

Deepmotion

DeepMotion的主要功能特点

  • 无标记AI动作捕捉:无需穿戴设备或布置标记点,仅用手机 / 相机拍的普通视频即可准确捕捉到人的动作(关节角度、面部表情、手指动作等),克服传统动捕 “成本高、场景受限” 的痛点。
  • 实时身体追踪:用电脑摄像头或手机传感器直接采集人体关节点动作,延时极低,可以用于虚拟偶像直播(驱动3D形象与人实时互动)、VR聊天(把人动作实时传递到虚拟形象)、影视预演(导演实时调整演员动作效果)。
  • 角色自动重定向:一键自动将生成的动画数据转换到创建的自定义3D角色(能转换为FBX/GLB/VRM格式),内置Ready Player Me、Avaturn、MetaHuman等数字人模型,无需变换、适配骨骼,节约角色动画绑定时间。
  • 高级后期编辑:提供精细动画处理,如 Rotoscope Pose 编辑器(手动帧调整姿态)、运动平滑处理(消除动作卡顿感)、脚步锁定(避免角色 “漂浮感”)、地面接触修正(修正动作与地面的位置关系),快速实现专业动画制作。
  • 云端高效处理:动作、动画全部在云端完成,无需下载大软件,普通的电脑/手机,打开网页操作即可。单段10秒视频生成3D动画仅需数分钟,大幅提升创作效率。
  • 跨生态兼容:导出MP4格式预览视频以及行业标准的动画文件格式,轻松接入Unity(游戏)/Unreal(影片特效)/Blender(3D建模)/Roblox(元宇宙)等工具,并无缝对接现有的工作流。
Deepmotion

适用场景

  • 独立游戏开发:小团队无需建造动捕棚,都可以拍摄真人动作做游戏角色动画(打斗、跑步、交互动作等),成本减少60%以上,适合手游、VR游戏场景等。
  • 影视与动画短片:导演用手机拍演员试镜动作,快速生成3D动画用于试片预演(如镜头角度、动作效果是否合理),甚至作为背景里的动画角色,减少正片制作时间。
  • 虚拟偶像与直播:主播用摄像头直播,驱动3D虚拟形象(动作捕捉精度高,包含面部表情、手动作等),表现流畅(低延时),适合直播间短视频直播、线上演唱会等。
  • 教育与培训:学校设计类的课程,学生可以将有关体育动作(舞蹈、武术等)、机械操作视频等变成3D动画,用来视频讲解;企业培训出设备使用3D操作动画,来提高效率。
  • 元宇宙与社交平台:上传自拍视频到网络,生成个人虚拟化身专属的特定动作(如用户的个性舞蹈、打招呼动作)用在元宇宙的 Roblox、VRChat 等平台上,增加社交的趣味性。
  • 医疗与康复:利用动作捕捉检测患者的肢体活动(如活动后得到的康复训练动作),可生成检测报告帮助医生调节康复治疗计划;或生成康复动作指导 3D 图像动画帮助患者熟悉动作。
  • 体育训练:捕捉运动员的训练动作(如跑步动作、投球动作等),生成动作的 3D 动画,利于动作细节的细致剖析,帮助教练发现错误动作,增强训练的针对性。 

DeepMotion怎么用?

一、Animate 3D(视频→3D 动画)教程

  1. 访问 DeepMotion官网(https://www.deepmotion.com),注册用邮箱/谷歌账号等,免费账户可每月拿到60个动画积分(1积分=5秒动画);
  2. 准备1080p左右的5~15s的动作视频(人物整段、背景简单、光比较均匀、不遮挡等);
  3. 登录DeepMotion主页点击“Animate 3D”,上传动作视频,选择自带角色,或者上传FBX/GLB格式的自己定制的3D模型;
  4. 勾选“手位置 + 面部位置 + 脚锁定”,分辨率为1080p,选“输出格式”,编译文件选择FBX(开发版)或MP4(预览版);
  5. 点击“Create Animation”,需要等待云端将视频“编译”(10s视频大概20~40s),编译好的视频可以预览,再用编辑器调整动画;
  6. 点击 “Download”,将文件下载到本地并导入到 Unity/Blender/Unreal 等软件中使用。

二、SayMotion(文字→3D 动画)教程

  1. 登录后点击首页 “SayMotion”,进入文字生成界面;
  2. 输入完整的动作描述(如“卡通角色站起拍掌落地转身”);
  3. 选择3D角色,改变动作大小(Normal / Large)、帧率(默认24fps);
  4. 点击 “Generate” 生成动画,预览确认效果;
  5. 下载 FBX/MP4 格式文件,完成创作。 
关于Deepmotion特别声明

本站新媒派提供的Deepmotion内容都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由新媒派实际控制,在2024年5月8日 下午7:14收录时,该网页上的内容,都属于合规合法,后期网页的内容如有出现违规,可以直接联系网站管理员进行删除,新媒派不承担任何责任。

相关导航

EchoMimic

EchoMimic

EchoMimic是阿里巴巴达摩院开发的一项AI数字人开源项目,能够通过音频和面部标志点生成高度逼真的肖像动画。无论是单独使用音频或面部标志点,还是将两者结合,EchoMimic都能创造出自然流畅的动态视频。能够通过给定的音频和一张面部照片,生成与音频口型动作匹配的说话或者唱歌视频,做口播视频或者趣味唱歌视频都可以。该技术在娱乐、教育、虚拟现实和在线会议等领域有广泛应用前景。

暂无评论

您必须登录才能参与评论!
立即登录
none
暂无评论...