小米技术团队在语音技术领域再推重磅成果。继MiMo-V2.5系列大模型开启公测后,团队于今日正式发布MiMo-V2.5-TTS语音合成系列与MiMo-V2.5-ASR语音识别模型,完成语音交互全链路技术布局。此次发布涵盖从声音生成到语音转写的完整解决方案,为智能设备语音交互能力带来显著提升。
TTS系列包含三款创新模型,形成差异化技术矩阵。基础版MiMo-V2.5-TTS内置20余种专业音色库,支持语速、音高、情感强度等参数实时调节,用户可通过自然语言指令实现"温柔劝导"或"严厉警告"等复杂语气表达。VoiceDesign模型突破传统音色生成范式,仅需输入"25岁女声,带江南口音"等文字描述,即可在3秒内合成全新音色,无需提供任何音频样本。旗舰版VoiceClone模型则展现高保真复刻能力,通过5秒参考音频即可精准捕捉声纹特征,同时保留对情感、语速等维度的控制权限,官方演示中成功复现了包含"阴阳怪气"等微妙情绪的语音样本。
作为技术底座的MiMo-V2.5-ASR模型采用开源策略,同步公开模型权重与训练代码。该模型专门针对真实场景优化,在方言识别方面支持吴语、粤语等8种中文方言,对中英文混杂、专业术语等复杂语料的转写准确率提升37%。通过引入多通道声源分离技术,模型在咖啡厅、地铁站等强噪音环境下仍能保持92%以上的识别率,并支持最多6人同时对话的实时转写。输出端创新采用结构化文本格式,自动添加逗号、句号等标点符号,转写结果可直接用于文档处理。
目前TTS系列已上线MiMo Studio开发平台,提供可视化调参界面与API接口。ASR模型代码与预训练权重同步登陆GitHub及HuggingFace模型库,支持PyTorch与TensorFlow双框架部署。技术文档显示,团队正在研发支持环境音效生成的AudioCraft模块,并计划通过上下文记忆机制提升多轮对话的连贯性,相关功能预计在第三季度进入内测阶段。