微软AI(Microsoft AI,简称MAI)正式推出两款自研AI模型——语音生成模型MAI-Voice-1与基础模型MAI-1-preview。其中,MAI-Voice-1已率先整合至Copilot Daily、Podcasts及Copilot Labs三大产品;MAI-1-preview则登陆社区模型评估平台LMArena展开公开测试,并计划逐步接入Copilot的文字类应用。

核心愿景:让AI赋能每一个人
微软始终秉持“AI赋能全球每个人”的理念,致力于打造具备支持性、辅助性的AI工具:它既是连接知识的入口,也是助力个人与组织突破效能边界的能力集合。在开发过程中,微软始终以“负责任、可靠、个性化、专业化”为核心,目标是将AI打造为定义行业标准、获得广泛信赖的产品平台,精准匹配不同用户的独特需求。
自去年起,微软便着手搭建这一愿景的底层基础,集结顶尖团队与技术设施。而此次两款自研模型的发布,正是实现这一目标的关键第一步——为MAI体系构建“为特定目的而生”的专属模型支撑。
两大新模型:功能、落地场景全解析
1. MAI-Voice-1:高表现力语音生成,已落地三大产品
作为微软首款高表现力、自然度的语音生成模型,MAI-Voice-1的核心优势在于“高效+优质”:在单个GPU上,生成一分钟音频的耗时可控制在一秒以内,是当前效率领先的语音系统之一。
目前,该模型已深度融入微软多款产品:
- 为Copilot Daily、Podcasts提供语音生成能力;
- 登陆Copilot Labs并开放体验,用户可通过简单提示词实现多样化场景创作——比如生成“选择你自己的冒险”互动故事,或定制助眠引导冥想音频等。
微软认为,语音将是未来AI交互的核心界面,而MAI-Voice-1在单人、多人场景下均能提供高保真、富情感的音频输出,为后续交互体验升级奠定基础。

2. MAI-1-preview:端到端基础模型,多渠道开放测试
MAI-1-preview是MAI体系下首个端到端训练的基础模型,定位为“面向消费者的实用型AI工具”,可精准响应日常查询、高效执行指令。该模型的训练依托于约15000个英伟达H100 GPU,经过预训练与后训练双重打磨。
现阶段,MAI-1-preview的测试与落地分三步走:
- 公开测试:已上线社区模型评估平台LMArena,接受广泛测试反馈;
- 产品接入:未来几周将逐步接入Copilot的部分文字应用,通过真实用户交互持续优化;
- API开放:向可信测试者开放API访问申请通道(可通过官方渠道申请),收集专业场景下的改进建议。
微软强调,将持续融合团队、合作伙伴及开源社区的创新成果,确保模型能在数百万次日常交互中稳定输出最优结果。
未来规划:构建专用模型矩阵,诚邀人才加入
对于MAI的后续发展,微软明确了两大方向:一方面将持续迭代现有模型,提升核心能力;另一方面将构建“多专用模型协同”体系——针对不同用户意图、不同使用场景,开发专属AI模型,释放更多应用价值。
此外,微软透露,MAI实验室已部署下一代GB200集群,计算能力进一步升级。目前团队正招募“有才华、有雄心、低自我”的人才,共同参与下一代AI模型的研发,推动技术落地并创造积极社会价值。















