
YuE简介
YuE是由香港科技大学开发的开源音乐生成模型,专注于从给定的歌词生成完整的音乐音频。YuE 支持多种音乐风格和语言,能够生成高质量的声乐和伴奏部分,适用于各种音乐创作需求。通过 YuE,用户可以轻松生成长达 5 分钟的完整歌曲,实现创意音乐制作。

YuE:香港科技大学推出的开源音乐生成模型
YuE的主要功能特点
- 全曲生成:YuE 能够生成长达 5 分钟的完整音乐音频,包括人声和伴奏部分。
- 歌词条件生成:YuE 在整个歌曲生成过程中跟踪歌词条件,保持音乐结构的连贯性。
- 多样化音乐风格:支持多种音乐风格,如爵士、流行、说唱、民谣等,提供丰富的音乐选择。
- 语音和声乐技巧:能够生成复杂的声乐技巧,如咆哮、混合声、即兴演唱等,使音乐更具表现力。
- 多语言支持:支持多种语言,包括英语、普通话、粤语、日语和韩语,满足不同语言需求。
- 灵活的技术应用:引入语义增强音频标记器、双标记技术和歌词链式思维等技术,实现高质量音乐生成。
- 三阶段训练方案:采用三阶段训练方案,确保音乐生成的可扩展性、音乐性和歌词可控性。
技术原理
YuE 的技术原理主要包括以下几个方面:
- 语义增强音频分词器:YuE 使用语义增强音频分词器来降低训练成本并加速收敛,更好地理解歌词的语义信息,与音乐信号相结合,生成更符合歌词内容的音乐。
- 双分词技术:YuE 提出了一种双分词技术,在不修改 LLaMa 解码器-only 架构的情况下实现音轨同步的声乐-乐器建模,确保两者在节奏和旋律上的协调性。
- 歌词链式思维生成:YuE 引入了歌词链式思维生成技术,支持模型在遵循歌词条件的情况下逐步生成整首歌曲,确保生成的歌曲在整体结构上保持连贯性。
- 三阶段训练方案:YuE 的训练方案分为三个阶段:基础模型训练、风格和情感对齐、偏好纠正,通过这些阶段确保生成的音乐更符合人类的审美标准。
这些技术使得YuE能够生成高质量、连贯且符合歌词内容的音乐,支持多种音乐风格和多语言。
YuE应用场景
音乐创作:音乐制作人可以利用YuE快速生成旋律和伴奏。
影视配乐:在电影、电视剧和短视频制作中,YuE可以为不同场景生成合适的背景音乐。
游戏开发:游戏开发者可以使用YuE生成游戏中的音乐,增强游戏的沉浸感。
教育和研究:音乐教育者和研究人员可以利用YuE进行音乐创作的教学和研究。
项目地址:https://map-yue.github.io/
GitHub:https://github.com/multimodal-art-projection/YuE
数据评估
关于YuE特别声明
本站新媒派提供的该工具内容都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由新媒派实际控制,在2025年2月9日 上午11:11收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,新媒派不承担任何责任。
与YuE相关工具

CogVideo是目前最大的通用领域文本到视频生成预训练模型,含94亿参数。CogVideo将预训练文本到图像生成模型(CogView2)有效地利用到文本到视频生成模型,并使用了多帧率分层训练策略。

WeKnora
WeKnora(维娜拉)是腾讯开源的 基于大语言模型(LLM)的文档理解与语义检索框架,采用 RAG(检索增强生成)机制,将精准召回的文档片段与大模型推理结合,输出高质量、上下文感知的回答。

Waver 1.0
Waver 1.0是 FoundationVision 推出的下一代通用视频生成基础模型,基于 Rectified Flow Transformer 架构,统一支持文本生成视频(T2V)、图像生成视频(I2V)与文本生成图像(T2I)。最高可生成 1080p 高分辨率视频,分辨率、宽高比与时长(2–10 秒)灵活可调;在 T2V 与 I2V 榜单均跻身前三,画质、运动幅度与时间一致性媲美商用方案。支持可控风格与质量、APG 伪影优化及 Cascade Refiner 高效升采样,适用于影视创意、游戏动画、教育科研等多场景。

知海图AI
知海图AI是知乎与面壁智能合作开发的中文大模型,于2023年4月13日开始内测。它的主要功能是对知乎热榜上的问题回答进行要素抽取、观点梳理和内容聚合,以便用户能够更快、更全面地了解知友们讨论的热点与焦点。知海图AI在特定场景中的表现与GPT-4相当,显示出强大的语言理解和内容总结能力。此外,知海图AI的发布也标志着知乎在大语言模型领域的进一步布局,旨在赋能创作者、讨论场、信息获取等多个业务场景。

甲骨文AI协同平台-殷契文渊
殷契文渊是一个甲骨文AI协同平台,它提供了丰富的甲骨文资料库,包括图片、释文、研究论文等。利用人工智能技术,帮助用户更高效地进行甲骨文的自动识别和解读。

CineMaster
CineMaster是一个3D感知和可控的文本到视频生成框架,旨在帮助用户创建高质量的电影视频。该框架通过两个阶段的工作流程,赋予用户专业电影导演般的控制力,允许他们在 3D 空间中精确地放置场景中的对象,并灵活地操控对象和摄像机。

Gemini 2.5 Flash Image
Gemini 2.5 Flash Image是Google最新一代AI图像生成与编辑模型,支持多图融合、角色一致性、自然语言精准编辑、视觉模板适配及基于世界知识的创作。延续低延迟与高性价比优势,生成画质更清晰细腻,适用于电商、品牌营销、教育、游戏等多场景,并为所有生成图片嵌入 SynthID 数字水印,确保合规可追溯。

GPT-4o mini
GPT-4o Mini 是 OpenAI 最新推出的小型智能模型,专为高性能和低成本的人工智能解决方案而设计。它支持文本、视觉、音频等多模态输入输出,响应速度极快,适用于实时应用场景。

Hibiki
Hibiki是一个Kyutai Labs开发的一个用于流式语音翻译(也称为同步翻译)的模型。与离线翻译不同,离线翻译需要等待源语句结束后才开始翻译,而 Hibiki 能够实时积累足够的上下文,以逐块生成正确的翻译。用户在讲话时,Hibiki 会在目标语言中生成自然的语音,并提供文本翻译。

MotionGen
MotionGen 是由元象科技推出的创新 3D 动作生成模型。通过结合大模型、物理仿真和强化学习等前沿算法,简化 3D 动画制作过程。用户只需输入简单的文本指令,即可快速生成逼真、流畅且复杂的 3D 动作。无论是动画、游戏、电影还是虚拟现实行业,MotionGen 都能显著提高创作效率,降低制作成本。

星火大模型
讯飞星火大模型是由科大讯飞推出的新一代认知智能大模型,可基于自然文本、语音的方式提供多场景文本生成、语言理解、知识问答、逻辑推理、数学解答、代码生成和多模态7大能力。

MoonShot AI
MoonShot AI(又名“月之暗面AI”)是一家致力于人工智能技术创新的公司,专注于开发和优化大型AI模型。我们的先进人工智能预测技术正改变未来。从股市分析到疫苗研发,我们的大模型技术提供了前所未有的准确性和速度。

DeepSeek
DeepSeek(深度求索) 是一款当前非常火爆的开源大型语言模型,因其性能媲美世界顶尖的闭源模型如 ChatGPT 和 Claude 而备受瞩目。该模型在极低成本的情况下完成训练,为用户提供了高效、精准的语言理解和生成能力。

商量拟人大模型
商量拟人大模型是商汤科技推出的一款AI拟人大模型,它支持个性化角色创建与定制、知识库构建、长对话记忆、多人群聊等功能,可实现行业领先的角色对话、人设及剧情推动能力。该模型广泛应用于情感陪伴、影视/动漫/网文IP角色、明星/网红/艺人AI分身、语言角色扮演游戏等拟人对话场景。

StableAvatar
StableAvatar是由复旦大学、微软亚洲研究院、西安交通大学等团队联合研发的端到端视频扩散模型,可基于一张参考人物图片与音频,生成无限时长、高保真、身份一致的音频驱动头像视频,无需任何后处理。支持多分辨率输出与跨平台运行,广泛应用于虚拟主播、影视广告、游戏角色动画、教育培训及数字人客服等场景。

gpt-realtime
gpt‑realtime是OpenAI 推出的 生产级语音到语音 AI 模型,具备低延迟、高保真语音、多语言切换、复杂指令遵循与函数调用能力。结合 Realtime API,可直接处理音频、文本、图片输入,并支持远程 MCP 工具接入与 SIP 电话呼叫,适用于 AI 电话客服、智能语音助理、教育培训、销售咨询等场景。相比传统管道,gpt‑realtime 以单一模型实现端到端语音交互,响应更自然流畅。
暂无评论...













