StableAvatarStableAvatar是由复旦大学、微软亚洲研究院、西安交通大学等团队联合研发的端到端视频扩散模型,可基于一张参考人物图片与音频,生成无限时长、高保真、身份一致的音频驱动头像视频,无需任何后处理。支持多分辨率输出与跨平台运行,广泛应用于虚拟主播、影视广告、游戏角色动画、教育培训及数字人客服等场景。08280AI大模型# StableAvatar# 音频驱动头像视频生成模型