Xiaomi MiMo大模型

8小时前发布 368 00

工具介绍:小米 MiMo大模型是小米大模型Core团队(由AI专家罗福莉领导)打造的系列化开源AI模型家族,核心定位为专为推理任务优化,以 “小参数大能力” 为特色,后续扩展出 MoE 架构、视觉、音频、具身智能等多个分支,全系列均采用开源策略。覆盖语言、视觉、音频、具身智能等多模态领域,专为推理、编码与智能体(Agent)场景打造,全系列采用MI...

所在地:
中国
收录时间:
2025-12-18

Xiaomi MiMo大模型简介

Xiaomi MiMo大模型是什么?

小米 MiMo大模型是小米大模型Core团队(由AI专家罗福莉领导)打造的系列化开源AI模型家族,核心定位为专为推理任务优化,专注于“小参数大能力”,之后又陆续开发出“MoE”、视觉、音频、具身智能等众多系列,都是全部开源的。覆盖语言、视觉、音频、具身智能等多种模态,为推理、编码、智能体(Agent)场景打造,全系列采用MIT等友好开源协议,支持开发者二次开发与商业落地。

小米 MiMo大模型家族第一个版本(MiMo-7B)于2025年4月30日首次开源,最新的旗舰版本MiMo-V2-Flash于12月16日晚的模型权重及代码率先发布于Hugging Face和GitHub,12月17日在 Xiaomi“人车家全生态”合作伙伴大会上卢伟冰官宣开源,罗福莉 (小米大模型 Core 团队负责人) 现场解读技术细节

Xiaomi MiMo大模型

核心定位与起源

  • 研发主体:小米新成立的 “大模型 Core 团队”,由AI专家罗福莉领导。
  • 核心目标:突破参数规模限制,在7B 基础参数下实现超越更大模型的推理性能。
  • 首发亮点:首个专为推理 (Reasoning) 而生的开源大模型,在数学推理与代码生成领域表现突出。

模型家族核心成员与关键参数

模型名称发布时间核心架构参数规模特色能力
MiMo-7B系列2025.4.30标准 Transformer7B数学推理、代码生成,超越 OpenAI o1-mini 和阿里 32B 模型
MiMo-VL2025.8视觉语言融合7B最强 7B 级开源视觉语言模型,支持 2508 序列长度
MiMo-Audio2025.11音频专用架构7B1 亿小时预训练,多模态音频理解超越 Gemini 开源版
MiMo-Embodied2025.11.21具身智能架构业界首个打通自动驾驶与具身智能的跨域基座模型
MiMo-V2-Flash2025.12.17MoE(混合专家)总参数 309B

激活参数 15B

高速推理,支持 256k 上下文窗口,混合思维模式

核心技术优势

  1. 推理性能突破:连接预训练模型+强化学习训练方法使得7B参数模型的成绩在测评数学推理 (AIME 24-25) 和代码生成 (LiveCodeBench v5) 测评中超越部分32B参数级模型。
  2. 混合思维模式:“思考模式”(深度推理)、“即答模式”切换,满足不同任务需求。
  3. MoE 架构创新:MiMo-V2-Flash 采用专家混合架构,在保持 15B 激活参数高效推理的同时,掌握拥有309B总参数的知识容量。
  4. 超长上下文:最新模型上下文支持256k,能够处理超长文章和复杂Agent交互任务。
  5. 多模态扩展:从语言推理到视觉理解、音频处理、具身智能,实现跨领域能力覆盖。
Xiaomi MiMo大模型

开源范围

  • 模型权重 (包括Base版本) 采用MIT 协议全面开源,对商业使用友好
  • 完整推理代码贡献至 SGLang 社区
  • 技术报告与模型细节全部公开
  • 提供网页端体验 (https://aistudio.xiaomimimo.com) 与API服务 (限时免费) 

适用场景

  • 数学与逻辑推理:做复杂的数学题、逻辑推理题,适用于教育和科研。
  • 代码生成与优化:支持多语言代码编写、调试和优化,提升开发效率。
  • 智能体 (Agent) 应用:MiMo-V2-Flash专门适用于Agent,支持几百轮的交互,支持工具调用。
  • 视觉内容理解:MiMo-VL 可处理图像描述、视觉问答等复杂视觉语言任务。
  • 音频智能交互:语音识别、情感分析、音频内容理解,赋能智能设备交互。
  • 具身与自动驾驶:MiMo-Embodied 实现机器人控制与自动驾驶的统一建模。
  • 企业级 AI 应用:低成本高效推理,适合需要快速响应的商业智能系统。

Xiaomi MiMo大模型官方开源地址汇总

一、主仓库地址

平台官方地址说明
Hugging Facehttps://huggingface.co/XiaomiMiMoMiMo 全系列模型官方主页,包含所有版本权重与配置
GitHubhttps://github.com/XiaomiMiMo/MiMo主项目仓库,含基础模型代码、技术报告与使用文档GitHub

二、各版本专项仓库

1. MiMo-V2-Flash(最新旗舰版)

2. MiMo-VL(视觉语言版)

3. MiMo-Audio(音频版)

4. MiMo-7B 基础系列

三、快速访问提示

  1. 所有模型均采用MIT 开源协议,商业使用友好
  2. 在线体验: https://aistudio.xiaomimimo.com (支持 MiMo-V2-Flash 最新功能)
  3. 官方博客: https://mimo.xiaomi.com/blog/mimo-v2-flash

数据评估

Xiaomi MiMo大模型浏览人数已经达到368,如你需要查询该站的相关权重信息,可以通过第三方来进行查询,比如爱站、5118数据、chinaz等;更多网站价值评估因素如:该网站的访问速度、搜索引擎收录以及索引量、用户体验等;当然要评估一个站的价值,最主要还是需要根据您自身的需求以及需要,一些确切的数据则需要找该网站的站长进行洽谈提供。如该站的IP、PV、跳出率等!

关于Xiaomi MiMo大模型特别声明

本站新媒派提供的该工具内容都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由新媒派实际控制,在2025年12月18日 上午9:38收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,新媒派不承担任何责任。

与Xiaomi MiMo大模型相关工具

Mini-Gemini

Mini-Gemini

Mini-Gemini是一个简单而有效的框架,用于增强多模态视觉语言模型(VLMs),由中国香港中文大学和 SmartMore 的研究人员共同推出。Mini-Gemini支持一系列密集和MoE大型语言模型(LLMs),从2B到34B。为了增强视觉token,该框架建议在不增加视觉token数量的情况下,利用额外的视觉编码器进行高分辨率细化。同时,Mini-Gemini还构建了一个高质量的数据集,以促进精确的图像理解和基于推理的生成,从而扩大当前VLM的操作范围。

暂无评论

您必须登录才能参与评论!
立即登录
none
暂无评论...