
Kokoro TTS简介
Kokoro TTS是什么?
Kokoro TTS 是一款基于 StyleTTS 2 架构开发的轻量级、高性能 AI 语音合成模型,专注于提供自然流畅、多语言支持的文本转语音(TTS)解决方案。简洁小巧的架构蕴含强大的能力,使用仅为 8200 万参数量即可匹敌甚至赶超大模型级别的音质效果,具有极佳灵活广泛的应用特性,能轻松应用于内容生产、企业培训及无障碍场景等多维度服务中。

核心特性与功能
- 轻量高效,性能卓越
- 只有 8200 万,比同类模型参数量(XTTS: 4.67 亿,MetaVoice: 12 亿)要少,但是在语音自然度和流畅度上都表现不错。
- CPU/GPU 支持运行,使用 NVIDIA GPU 加速可实时播放音频(牺牲了部分速度)。
- 多语言支持,覆盖主流语种
- 英版(美式/英式)、法语、韩语、日语及普通话等多种语言和多种语音包,包括英语的 Bella/Sarah/Adam 版本等。
- 工具灵活,适配多元场景
- 自动内容分割:能够识别文字的章节与段落,便于后期对电子书或文章转音频的操作,输出后无排版痕迹。
- 可定制语音包:支持不同音色、语气的声音包供选择使用,可根据项目更换。
- OpenAI 生态兼容:无缝集成 OpenAI API,方便开发者扩展功能,融入各类应用程序。
- 自动内容分割:能够识别文字的章节与段落,便于后期对电子书或文章转音频的操作,输出后无排版痕迹。
- 开源免费,商业友好
- Apache 2.0 开源授权,个人或者商业免费使用,无版权声明,开发者可以在 Hugging Face 仓库直接获取代码或在 Colab 上教程直接试用。
应用场景
- 有声书与内容创作:迅速将你的电子书籍、博客等变成精美的有声作品(小众题材、多种语言版本都可以)。
- 播客与音视频制作:从你的文本文稿迅速转变为活灵活现的真实旁白,快速生成海量内容。
- 企业培训与教育:为企业的不同语言、不同国家训练视频或者手册提供声音注解。
- 无障碍服务:可以帮助你或身边视觉障碍的亲朋好友无障碍地收听网页、办公文档等等需要读出来的东西!
使用教程指南
Kokoro TTS 的使用有两种方式,分别是线上体验和本地安装,下面进行一一介绍:
一、在线使用教程
- 访问网站:进入 Kokoro TTS 在线平台,如https://kokorotts.online/ 。
- 输入文本:在输入框内输入或粘贴需要转成语音的文字(平台支持美式发音和英式发音),能识别自然语言文本的语境、标点和各种细微差别等,方便后期 TTS 合成。
- 选择语音:从平台上搭载的由 kokoro82m 开发的丰富的自然语音库中选择适合的声音进行转化;这些自然的文本转语音被录制加工得淋漓尽致。
- 生成并获取语音:点击一键合成后,kokoro tts 将会利用 AI 最新的语音生成技术,在几秒钟之内就将文字变成流畅自然的语音输出,并且匹配好节奏重音语气情感等等完美无瑕并且表达语调自然到位;语音格式高达 24k,在线就能播放。
二、本地使用教程
1.准备工作
- 安装依赖(git LFS, espeak-ng):安装方式:git lfs install,用于大文件下载,Linux 系统下执行命令后可进行 git-lfs 的安装;espeak-ng 同理。其余的则为:pip install torch transformers phonemizer scipy munch 来安装 Pytorch 依赖包。(Windows/MacOS 可能需要再额外配置一步,可以搜索 espeak-ng 中间件 GitHub 下载问题解决)。
- 克隆模型仓库:将 Kokoro TTS 的 Hugging Face 仓库clone到本地,后续操作基于该目录进行。
2.构建模型并加载语音包
- 选择设备:CPU 还是 GPU 来加载运行,不同的设备会导致不同的运行速度。
- 加载模型和语音包:Kokoro TTS 内置默认的 Bella 和 Sarah 混合语包。通过代码来选择想要合成使用的语音名,VOICE_NAME = ‘af’ ,然后通过 VOICEPACK = torch.load(f’voices/{VOICE_NAME}.pt’, weights_only=True).to(device) 加载我们想要使用的声音包。
3.生成语音:输入文本内容,用模型加刚刚选好的语音包输出对应的语音与音素,audio, out_ps = generate(MODEL, text, VOICEPACK, lang=VOICE_NAME(0))。其中 MODEL 是已经建好好的模型,text 要输入的内容。
4.播放和保存语音:可以在浏览器里直接展示,在窗口里面就可以听到音频,能够更加直观地感受一下效果;可以点击另存为,用 wav.write(“output_audio.wav”, 24000, audio),把文件保存成 .wav 的格式。
数据评估
关于Kokoro TTS特别声明
本站新媒派提供的该工具内容都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由新媒派实际控制,在2025年4月9日 下午9:42收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,新媒派不承担任何责任。
与Kokoro TTS相关工具

MakeSong是一款人工智能驱动的AI音乐和歌曲生成器,帮助用户快速创作原创音乐。它支持歌词模式和 描述模式,用户可以直接输入歌词或描述音乐风格,由 AI 自动生成一首完整的歌曲。

知意字稿
知意字稿是一款基于AI技术的在线语音转文字和文字提取工具。它能够快速、准确地识别音频文件中的声音内容,并将其转换成文字形式。同时,它还可以将音频文件转换成字幕文件,方便用户在视频中使用。

Cloud TTS
Cloud TTS 是一款免费的在线语音合成工具,可以将文本文字内容转换成语音进行在线朗读。用户只需在文本框内输入相关文字内容,该在线工具便可以自动将文本转换成自然通顺的语音,支持多种语言,并允许用户调整语音速度、音量等参数,实现文本转语音的快捷转换。

Reecho AI睿声
Reecho AI睿声是一个先进的AI超拟真语音合成与瞬时克隆平台,它采用了自研的自回归生成式AI语音大模型,可以在没有任何配置的情况下,仅用5秒钟的声音样本,就能克隆任意角色的声音,并以与真人几乎无异的拟真度、表现力、情感、韵律和音色来基于文本生成人声音频。

TTSReader
TTSReader 是一款免费的在线文本到语音阅读器。它可以将任何类型的文本转换为语音,并以自然动听的声音大声读出。

Google music FX
Google music FX是一款免费的人工智能音乐生成工具,它可以让你通过输入文字描述来创作各种曲风的音乐。你只需要输入一句话,就可以让Google music FX为你生成一段高质量的原创音乐。你还可以自定义调整曲风、节奏、混音和音量,打造出专属于你的音乐风格。

Plazmapunk
Plazmapunk是一款AI音乐视频生成平台,支持上传音乐或使用 AI 音轨生成器,结合多种视觉风格(如 Kandinsky、SDXL)、GPT 场景编辑器与多比例格式,快速生成高质量视频,适用于音乐发布、社交创作及开发者集成。

知意配音
知意配音作为一款专业的文字转语音配音软件,通过AI语音合成技术来实现视频配音、广告配音等制作。

ACE Studio
ACE Studio是一款由时域科技推出的免费AI歌声合成工具,适用于Windows和Mac系统。该工具利用实时合成技术,生成逼真的人类歌声,为用户带来卓越的听觉体验。

Murf AI
Murf AI 是一款先进的免费在线文本转语音工具,利用人工智能技术生成高质量的语音内容。支持超过120种语音和20多种语言,Murf AI 适用于广告、解说视频、电子学习内容、播客等多种应用场景。通过 Murf AI,用户可以轻松创建自然逼真的配音,节省时间和成本。

Fish Audio
Fish Audio 是领先的文本转语音 (TTS) 技术平台,开发了基于 VQ-GAN、Llama 和 VITS 的开源模型 Fish Speech。该模型经过大量数据训练,能够生成高质量、自然流畅的语音,支持中文、日语和英语。Fish Audio 致力于为用户提供逼真的语音合成解决方案,广泛应用于内容创作、教育、娱乐等领域。

MusicFX
MusicFX 是谷歌推出的一款创新的人工智能音乐生成工具。它允许用户通过输入文字描述来创作音乐,旨在让音乐创作变得更加简单和易于访问。即使是没有专业音乐背景的用户,也能够轻松生成高质量的原创音乐。

play.ht
Play.ht - 领先的AI语音生成和文本转语音平台。提供超过 600 种自然逼真的 AI 语音,支持 142 种语言和口音,帮助用户将文本快速转换为高质量的音频。

Coqui TTS
Coqui TTS是由Coqui.ai团队开发的一款基于深度学习的开源文本转语音 (Text-to-Speech, TTS) 项目。该项目以其强大功能和灵活性在 TTS 领域脱颖而出,提供超过 1100 种语言的预训练模型,几乎覆盖全球大部分语言的语音合成需求。无论是主流语言还是小众语种,Coqui TTS 都能胜任。此外,它还支持多说话人功能,为多样化的语音场景提供了便利。

Krillin Al
一款本地视频翻译、配音和语音克隆工具,专为跨语言视频本地化打造。它兼容国内外主流视频平台,支持 OpenAI API 规范的大模型,并默认采用 CosyVoice 声音,亦可自定义语音克隆。

MuseNet
MuseNet是由OpenAI开发的一个人工智能音乐生成模型,它可以生成长达4分钟的音乐作品,支持10种不同的乐器,并且能够结合不同风格,从乡村音乐到莫扎特再到披头士各种风格全覆盖。MuseNet通过学习海量MIDI文件来发现和谐、节奏和风格的模式,生成的音乐质量非常高。
暂无评论...













