
YuE简介
YuE是由香港科技大学开发的开源音乐生成模型,专注于从给定的歌词生成完整的音乐音频。YuE 支持多种音乐风格和语言,能够生成高质量的声乐和伴奏部分,适用于各种音乐创作需求。通过 YuE,用户可以轻松生成长达 5 分钟的完整歌曲,实现创意音乐制作。

YuE:香港科技大学推出的开源音乐生成模型
YuE的主要功能特点
- 全曲生成:YuE 能够生成长达 5 分钟的完整音乐音频,包括人声和伴奏部分。
- 歌词条件生成:YuE 在整个歌曲生成过程中跟踪歌词条件,保持音乐结构的连贯性。
- 多样化音乐风格:支持多种音乐风格,如爵士、流行、说唱、民谣等,提供丰富的音乐选择。
- 语音和声乐技巧:能够生成复杂的声乐技巧,如咆哮、混合声、即兴演唱等,使音乐更具表现力。
- 多语言支持:支持多种语言,包括英语、普通话、粤语、日语和韩语,满足不同语言需求。
- 灵活的技术应用:引入语义增强音频标记器、双标记技术和歌词链式思维等技术,实现高质量音乐生成。
- 三阶段训练方案:采用三阶段训练方案,确保音乐生成的可扩展性、音乐性和歌词可控性。
技术原理
YuE 的技术原理主要包括以下几个方面:
- 语义增强音频分词器:YuE 使用语义增强音频分词器来降低训练成本并加速收敛,更好地理解歌词的语义信息,与音乐信号相结合,生成更符合歌词内容的音乐。
- 双分词技术:YuE 提出了一种双分词技术,在不修改 LLaMa 解码器-only 架构的情况下实现音轨同步的声乐-乐器建模,确保两者在节奏和旋律上的协调性。
- 歌词链式思维生成:YuE 引入了歌词链式思维生成技术,支持模型在遵循歌词条件的情况下逐步生成整首歌曲,确保生成的歌曲在整体结构上保持连贯性。
- 三阶段训练方案:YuE 的训练方案分为三个阶段:基础模型训练、风格和情感对齐、偏好纠正,通过这些阶段确保生成的音乐更符合人类的审美标准。
这些技术使得YuE能够生成高质量、连贯且符合歌词内容的音乐,支持多种音乐风格和多语言。
YuE应用场景
音乐创作:音乐制作人可以利用YuE快速生成旋律和伴奏。
影视配乐:在电影、电视剧和短视频制作中,YuE可以为不同场景生成合适的背景音乐。
游戏开发:游戏开发者可以使用YuE生成游戏中的音乐,增强游戏的沉浸感。
教育和研究:音乐教育者和研究人员可以利用YuE进行音乐创作的教学和研究。
项目地址:https://map-yue.github.io/
GitHub:https://github.com/multimodal-art-projection/YuE
数据评估
关于YuE特别声明
本站新媒派提供的该工具内容都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由新媒派实际控制,在2025年2月9日 上午11:11收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,新媒派不承担任何责任。
与YuE相关工具

Veo 是 Google DeepMind 开发的一种先进的视频生成模型。它能够生成1080p高分辨率、长时长的高质量视频。Veo 支持多种电影和视觉风格,能够准确捕捉文本提示的细微差别,并提供创意控制。这个模型旨在使视频制作更易于访问,并在叙事、教育等领域开启新的可能性。

书生通用大模型
书生通用大模型是由上海人工智能实验室与商汤科技联合发布的大型预训练模型。它包括多个基础模型,如书生·多模态、书生·浦语和书生·天际等。这些模型旨在支持科研创新和产业应用,提供一个全链条开源的研发与应用平台。

SEED-Story
SEED-Story是一个腾讯开源的基于大型语言模型(MLLM)的多模态长篇故事生成模型,它能够根据用户提供的图片和文本生成连贯的叙事文本和风格一致的图片。无论是小说创作、剧本编写还是视觉故事,SEED-Story都能提供高质量、多模态的内容,助力创意产业的发展。

DDColor
DDColor是阿里达摩院研究的一种基于深度学习的图像上色模型,它可以自动将黑白或灰度图像着色,使图像更加生动逼真。

SeedEdit
SeedEdit是一种由字节跳动(ByteDance)豆包团队推出的智能图像编辑模型。它通过自然语言指令简化了图像编辑过程,用户只需输入简单的描述语句,就能实现图像的调整、美化、转换等操作。

Sora
Sora是一个能以文本描述生成视频的人工智能模型,由美国人工智能研究机构OpenAI开发。它能够根据用户的文本描述生成长达 60 秒、1080P 高质量视频,其中包含精细复杂的场景、生动的角色表情以及复杂的镜头运动。并在单个生成视频中创建多个镜头,准确保留角色和视觉风格。
Hyper-SD
Hyper-SD 是字节跳动推出的一种先进图像生成框架,结合了轨迹分段一致性蒸馏(TSCD)和人类反馈学习(RLHF),显著提升了扩散模型在少步骤推理下的图像生成性能。通过 Hyper-SD,用户可以在 1 到 8 步的推理过程中生成高质量的图像,极大地提高了生成速度和效率。

Ferret-UI
Ferret-UI是苹果公司与哥伦比亚大学研究团队联合发布的一个多模态AI大语言模型。它专为增强对移动端用户界面(UI)屏幕的理解而设计,具备引用、定位和推理功能。这个模型能够理解手机屏幕上的内容并执行任务,专注于移动端和用户交互。

Cherry Studio
Cherry Studio 是一个支持多模型服务的AI桌面客户端,支持 Windows、macOS 和 Linux,未来还将支持移动端。用户可以通过Cherry Studio无缝集成多种大型语言模型 (LLM),包括 OpenAI、Anthropic 和 Gemini 等,甚至本地部署的模型,确保数据隐私和安全。

孟子生成式大模型
孟子生成式大模型(孟子 GPT)是由澜舟科技研发的一款功能强大的生成式可控大语言模型。它能够通过多轮对话,帮助用户在特定场景中完成各种工作任务,包括内容生成、语言理解、知识问答、推理、代码理解和生成、金融任务等。

StableAvatar
StableAvatar是由复旦大学、微软亚洲研究院、西安交通大学等团队联合研发的端到端视频扩散模型,可基于一张参考人物图片与音频,生成无限时长、高保真、身份一致的音频驱动头像视频,无需任何后处理。支持多分辨率输出与跨平台运行,广泛应用于虚拟主播、影视广告、游戏角色动画、教育培训及数字人客服等场景。

FireRedASR
FireRedASR是一款由FireRedTeam开发的开源工业级自动语音识别(ASR)模型,支持普通话、中文方言和英语。它在公开的普通话 ASR 基准测试中取得了新的最优结果,并且在歌词识别方面表现出色。

怪兽AI知识库大模型
企业知识库大模型 + 智能的AI问答机器人,零代码搭建企业知识库平台,团队多人协同与权限管理,智能回复。

Claude
Claude是Anthropic公司发布的一款大型语言模型(LLM)。能够检测和回避潜在的陷阱,如逻辑错误、不恰当的内容、重复性和无聊等。具有高级推理、视觉分析、代码生成、多语言处理、多模态等能力,可以生成文本、翻译语言、编写不同类型的创意内容,并以信息丰富的方式回答问题。

星流图像大模型
星流图像大模型由 LiblibAI 发布的一款自研图像大模型,名为 Star-3 Alpha。该模型基于业界领先的 F.1 基础算法架构训练而成,辅以全球最大的 LORA 增强模型库及不断进化的 AI 图像控制能力。在图像精准度、色彩表现力、美学捕捉的细腻表达等方面实现了显著的飞跃,成为新的业界标杆。

M2UGen
M2UGen是一个由腾讯和新加坡国立大学共同研发的多模态音乐生成模型,它具备音乐生成、理解和编辑的能力。具体来说,M2UGen可以接收文字、图片、视频或音频作为输入,然后生成与之相匹配的音乐。
暂无评论...








