微软正在加速推进设备端 AI 的发展,通过将 DeepSeek 7B 和 14B 模型引入 Copilot+ PC,为开发人员和用户带来更强大的 AI 功能和更高效的计算体验。
DeepSeek 模型的引入与优化
今年1月,微软宣布计划将经过 NPU优化的 DeepSeek-R1 模型版本引入由高通骁龙 X 处理器驱动的 Copilot+ PC。随后,在2月,DeepSeek-R1-Distill-Qwen-1.5B 模型首次在 Visual Studio Code 的 AIToolkit 中提供,为开发者提供了初步的本地化 AI 支持。

如今,微软进一步扩展了这一功能,宣布通过 Azure AI Foundry 在 Copilot+ PC 上提供 DeepSeek R1 的 7B 和 14B 蒸馏模型。这些模型能够在本地运行,使开发人员能够构建更加复杂和高效的 AI 应用程序。
NPU 优化与性能优势
由于这些模型运行在 NPU 上,用户可以期待持续的 AI 计算能力,同时对 PC 电池寿命和散热性能的影响更小。此外,CPU 和 GPU 将被释放出来用于执行其他任务,从而提高整体系统效率。
然而,当前模型的性能仍存在一些限制。微软使用其内部自动量化工具 Aqua 将所有 DeepSeek 模型变体量化为 int4 权重,但这也导致了较低的令牌生成速度。例如,14B 模型的速度仅为 8 tok/sec,而 1.5B 模型的速度接近 40 tok/sec。尽管如此,微软表示正在努力进行进一步优化以提升速度,预计未来这些模型的表现将显著改善。
开发者如何获取与使用
感兴趣的开发人员可以通过 AI Toolkit VS Code 扩展,在 Copilot+ PC 上下载并运行 DeepSeek 模型的 1.5B、7B 和 14B 变体。这些模型以 ONNX QDQ 格式优化,并直接从 Azure AI Foundry 下载。未来,这些模型还将支持由英特尔酷睿 Ultra 200V 和 AMD 锐龙处理器驱动的 Copilot+ PC,进一步扩大适用范围。(来源)