RISC-V也能跑CUDA了?英伟达这步棋,意在中国

硬件5个月前发布 小马良
165 0

在2025年中国RISC-V峰会期间,一条看似低调却极具战略意义的消息悄然发布:

英伟达宣布,其核心软件平台 CUDA 将在 CPU 端支持 RISC-V 指令集架构(ISA)

这意味着,RISC-V 处理器未来可作为运行 CUDA 应用的主控 CPU,与传统的 x86 和 Arm 架构并列,成为 AI 与高性能计算(HPC)系统中的合法“指挥者”。

这一决定,不仅是技术兼容性的扩展,更可能是英伟达在全球地缘与技术变局下的一次深远布局。

RISC-V 能做什么?协调 GPU 计算

根据英伟达硬件工程副总裁 Frans Sijsterman 在峰会主题演讲中的说明,RISC-V CPU 并不直接执行 AI 计算任务,而是承担系统级协调角色:

✅ 运行操作系统
✅ 执行应用程序逻辑
✅ 驱动 CUDA 运行时环境
✅ 向 GPU 下发并管理计算任务

换句话说:GPU 负责“算”,RISC-V CPU 负责“管”

现场展示的架构图清晰呈现了这一异构系统模型:

  • GPU:处理并行计算(如深度学习推理)
  • RISC-V CPU:作为主机处理器,调度任务与资源
  • DPU(数据处理器):负责网络通信与数据搬运

这套“三芯协同”架构,正是英伟达对未来边缘与数据中心系统的设想。

为何现在支持 RISC-V?

虽然 RISC-V 目前尚未具备挑战 x86 或高端 Arm 的能力,但英伟达的这一步棋,背后有多重动因:

1. 应对地缘限制,维持 CUDA 生态扩张

由于美国出口管制,英伟达无法向中国市场交付其最先进的 GB200、GB300 等 AI 芯片
要维持在中国市场的影响力,就必须让 CUDA 生态 继续落地。

而 RISC-V 作为中国重点发展的开源指令集,已成为本土芯片设计的主流选择。
通过支持 RISC-V,英伟达实际上在说:

“即使你不能用我的旗舰 GPU,只要运行 RISC-V + CUDA,依然可以接入我们的 AI 软件栈。”

2. 拓展 Jetson 边缘计算生态

对于 NVIDIA Jetson 这类嵌入式 AI 模块而言,RISC-V 提供了更高的定制灵活性。

开发者可以基于 RISC-V 设计专用 SoC,集成传感器控制、低功耗协处理器等功能,同时仍能通过 RISC-V 主核调用 Jetson 的 GPU 能力。

这为机器人、工业自动化、智能终端等场景提供了更多系统设计自由度。

3. 推动异构计算的开放化

英伟达正从“硬件公司”转向“平台公司”。
其目标不再是卖 GPU,而是推广 以 GPU 为核心的异构计算平台

支持 RISC-V,意味着这个平台不再绑定特定 CPU 架构,而是向更多定制化、专用化系统开放——无论是数据中心,还是边缘设备。

现实挑战:RISC-V 还需跨越性能门槛

尽管前景广阔,但 RISC-V 要真正承担“CUDA 主机 CPU”的角色,仍面临挑战:

  • 当前多数 RISC-V 核心性能有限,难以胜任复杂任务调度
  • 缺乏成熟的系统级软件支持(如完整 Linux 发行版、调试工具链)
  • 生态碎片化,不同厂商实现差异大

因此短期内,RISC-V 更可能出现在:

  • 特定行业定制设备
  • 教学与研究平台
  • 国产化替代项目

而非主流超大规模数据中心。

长远影响:可能改变AI计算格局

如果 RISC-V 在性能与生态上持续进步,英伟达此举可能带来连锁反应:

  • 其他 GPU 厂商(如 AMD、Intel)或将跟进支持
  • 更多国产 AI 芯片可借助 CUDA 兼容性加速落地
  • 开源指令集 + 专有加速栈的组合,或成新范式

更重要的是,它释放出一个信号:

英伟达愿意将其封闭但强大的 CUDA 生态,部分向开放架构敞开大门

这或许是其应对全球技术割裂的一种务实策略。

© 版权声明

相关文章

暂无评论

none
暂无评论...