NotaGenNotaGen是由中央音乐学院与清华大学等机构联合研发的AI音乐生成模型,专注于生成高质量古典音乐乐谱,同时支持流行音乐创作。作为开源项目,其目标是推动音乐与人工智能的深度融合,为专业作曲家、教育机构及音乐爱好者提供创作辅助工具。0100AI大模型分类导航# AI古典音乐生成模型# 多风格乐谱生成平台# 开源AI作曲工具
Monica botsMonica Bots是一款基于先进AI模型(如 GPT-4、Claude、Gemini 等)的多功能AI助手,能助力用户快速创建和部署智能助手(Bots)的平台,Monica Bots支持跨平台使用,包括浏览器插件(Chrome、Edge、Safari)、桌面端(Windows、macOS)和移动端(iOS、Android)。它集成了聊天、写作、翻译、数据分析、AI 绘图等多项功能,让即使没有技术背景的人也能轻松上手构建和管理自己的AI应用,满足各种场景需求。050AI大模型分类导航# Monica Bots# 无需编程创建智能体# 智能体构建平台
PhantomPhantom是由字节跳动推出的一款创新视频生成框架,专注于主体一致性的视频生成任务(Subject-to-Video, S2V)。它通过跨模态对齐技术,将文本和图像提示结合起来,从参考图像中提取主体元素,并生成与文本描述一致的视频内容。0160AI大模型分类导航# AI文本生成视频# Phantom# StepPhantom开源框架
Step-Video-T2VStep-Video-T2V 是由阶跃星辰与吉利汽车集团 联合开源的一款先进文本生成视频(Text-to-Video)模型。这款模型在 2025 年 2 月 18 日正式发布,具备强大的多模态生成能力,支持中文和英文输入,适用于广告、影视制作、教育等多个场景。060AI大模型分类导航# Step-Video-T2V开源模型# Text-to-Video模型# 多模态视频生成模型
RAGFlowRAGFlow是一款开源的检索增强生成(RAG)引擎,专为深入理解文档而设计。它为各类企业和个人提供简洁高效的RAG工作流程,与大语言模型(LLM)相结合,针对各种复杂格式的数据提供可靠的问答及有依据的引用。RAGFlow非常适合需要动态内容生成且依赖外部知识库的场景,如智能客服、文档生成和数据分析等,助力用户高效挖掘大量数据中的有价值信息。06660AI大模型分类导航# 开源RAG引擎# 文档解析工具
WiseDiag-Z1WiseDiag-Z1是由杭州智诊科技推出的全科医学通用大语言模型,专为医疗领域设计,具有730亿参数和强大的医学知识库。它在知名的医学大模型主流榜单中名列前茅,适用于大多数复杂场景的健康咨询。05900AI大模型分类导航# 全科医学AI# 医学大语言模型# 医生助手AI
CineMasterCineMaster是一个3D感知和可控的文本到视频生成框架,旨在帮助用户创建高质量的电影视频。该框架通过两个阶段的工作流程,赋予用户专业电影导演般的控制力,允许他们在 3D 空间中精确地放置场景中的对象,并灵活地操控对象和摄像机。06040AI大模型分类导航# 3D感知视频生成# 创意视频生成工具# 文本到视频生成
FlashVideoFlashVideo是一个由字节跳动和香港大学联合开发的高效高分辨率视频生成框架,特别适用于文本到视频的生成。通过创新的两阶段框架设计和流匹配技术,FlashVideo 能在短时间内生成 1080p 高清视频,优化视频流畅性,并减少计算成本。05790AI大模型分类导航# AI视频生成框架# 动态视频生成框架# 视频生成框架
FireRedASRFireRedASR是一款由FireRedTeam开发的开源工业级自动语音识别(ASR)模型,支持普通话、中文方言和英语。它在公开的普通话 ASR 基准测试中取得了新的最优结果,并且在歌词识别方面表现出色。05940AI大模型分类导航# FireRedASR下载# 开源语音识别工具# 自动语音识别模型
YAYI2YAYI2(雅意2)是中科闻歌推出的新一代开源大语言模型,支持中文、英语等 10 多种语言。基于 Transformer 架构,参数规模达到 30B。YAYI2 采用 2 万亿 Tokens 的高质量语料进行预训练,并结合人类反馈强化学习,确保模型与人类价值观对齐。其多模态交互功能支持图文互生成、PDF 解析等。YAYI2 广泛应用于媒体宣传、舆情分析、政务治理、金融分析等领域,为企业提供 AI 辅助工具和知识库问答系统。04650AI大模型分类导航# 中文NLP模型# 开源大语言模型
InspireMusicInspireMusic 是由阿里巴巴通义实验室推出的开源音乐生成框架,集成了多项音频领域的前沿研究成果,为开发者和研究者提供全面的音乐创作、风格转换和音效合成解决方案。该框架依托多模态大模型技术,支持通过文本描述或音频输入进行智能化创作,并提供完善的模型调优工具链。06000AI大模型分类导航# 开源音乐生成模型# 音乐生成模型
GokuGoku是一个基于流生成的视频生成基础模型,由香港大学和字节跳动研究团队共同开发。Goku 模型主要用于生成高质量的视频内容,尤其在广告和营销场景中表现尤为出色。05530AI大模型分类导航# 图像到视频生成# 多模态视频生成# 文本到视频生成
HibikiHibiki是一个Kyutai Labs开发的一个用于流式语音翻译(也称为同步翻译)的模型。与离线翻译不同,离线翻译需要等待源语句结束后才开始翻译,而 Hibiki 能够实时积累足够的上下文,以逐块生成正确的翻译。用户在讲话时,Hibiki 会在目标语言中生成自然的语音,并提供文本翻译。06710AI大模型分类导航# Hibiki# 实时语音翻译模型# 语音翻译模型
JoyGenJoyGen是一个音频驱动的3D深度感知说话人脸视频生成框架。它通过音频驱动生成嘴唇运动和视觉外观合成,旨在实现精确的嘴唇-音频同步和高视觉质量。04710AI大模型分类导航# 3D说话人脸生成# JoyGen# 音频驱动3D说话人脸视频模型
Loopy AILoopy是一个端到端音频驱动的视频生成模型,专注于生成逼真的头像动画。利用先进的 AI 技术和时间模块设计,Loopy 能够从音频中提取自然的运动模式,并生成高质量的动画效果。支持多种视觉和音频风格,适用于虚拟主播、动画制作等应用场景。04080AI大模型分类导航# Loopy AI# 视频生成模型# 音频驱动头像动画
LMArena AILMArena AI 是一个专注于众包 AI 基准测试的开放平台,由加州大学伯克利分校 SkyLab 和 LMSYS 研究团队打造。用户可以在平台上免费与 AI 聊天并进行投票,比较和测试不同的 AI 聊天机器人。LMArena AI 提供盲测模式、匿名对战、投票系统和风格控制等功能,确保评估的公平性和客观性。平台还支持多模态功能,允许用户通过图像与 AI 互动。通过 LMArena AI,用户可以了解和体验不同 AI 模型的性能,帮助他们选择合适的工具或服务。04830AI大模型分类导航# AI基准测试# AI模型性能测试# AI模型排行榜
TarsierTarsier是由字节跳动研发的大规模视频语言模型家族,旨在生成高质量的视频描述,并具备良好的视频理解能力。Tarsier 采用了简单的模型结构,结合了 CLIP-ViT 编码帧和 LLM 模型来建模时间关系。通过精心设计的两阶段训练策略,Tarsier 展现出了强大的视频描述能力和视频理解能力,在多个公共基准测试中取得了最先进的成果。04830AI大模型分类导航# Tarsier# 大规模视频语言模型# 视频问答模型
Cherry StudioCherry Studio 是一个支持多模型服务的AI桌面客户端,支持 Windows、macOS 和 Linux,未来还将支持移动端。用户可以通过Cherry Studio无缝集成多种大型语言模型 (LLM),包括 OpenAI、Anthropic 和 Gemini 等,甚至本地部署的模型,确保数据隐私和安全。04310AI大模型分类导航# ai对话助手# Cherry Studio# 多平台AI客户端
PengChengStarlingPengChengStarling是由 PengCheng Labs 开发的多语言自动语音识别工具,支持中文、英语、俄语、越南语、日语、泰语、印度尼西亚语和阿拉伯语。相比 Whisper-Large v3,PengChengStarling 的模型仅占其 20% 大小,但推理速度提高了 7 倍,且流式语音识别效果卓越。04270AI大模型分类导航# PengChengStarling# 实时流式语音识别# 开源语音识别模型
YuEYuE是由香港科技大学开发的开源音乐生成模型,专注于从给定的歌词生成完整的音乐音频。YuE 支持多种音乐风格和语言,能够生成高质量的声乐和伴奏部分,适用于各种音乐创作需求。通过 YuE,用户可以轻松生成长达 5 分钟的完整歌曲,实现创意音乐制作。05520AI大模型分类导航# AI音乐创作工具# YuE# 全曲音乐生成