英特尔与英伟达联手:至强6 搭载DGX Rubin,提速大规模AI推理

硬件6天前发布 小马良
6 0

在2026英伟达GTC大会上,英特尔正式宣布:全新至强6处理器将作为英伟达DGX Rubin NVL8系统的主机CPU,双方通过CPU与AI平台深度协同,进一步提升大规模AI推理与集群整体效率。

这并非简单的硬件组合,而是两家厂商在AI基础设施层面的一次关键合作。在Core 200 Plus系列处理器发布时,英特尔就已强调至强6产品线对5G、6G网络扩展的重要价值;而此次与英伟达DGX Rubin的绑定,则把重心放在了数据中心、企业级AI场景的实际性能与部署成本上。

英特尔与英伟达联手:至强6 搭载DGX Rubin,提速大规模AI推理

DGX Rubin:英伟达下一代AI推理平台

英伟达Rubin平台在CES 2026首次亮相,定位为面向大规模推理与代理型AI模型的下一代架构,目标是解决通信、内存等关键瓶颈,相比Blackwell架构实现更低的单令牌成本与更快的推理速度。

Rubin平台的核心升级包括:

  • 全新Transformer引擎,支持自适应压缩,提升NVFP4算力表现;
  • 第六代NVLink互连,带宽翻倍,可统一调度多达72个GPU;
  • 第三代硬件级机密计算能力,强化安全能力;
  • 单GPU带宽达到3.6TB/s,整机总连接吞吐量接近260TB/s。

这些设计让DGX Rubin更适合大模型推理、多智能体协同、大规模并发AI服务等场景。

英特尔:AI推理不只看GPU,主机CPU决定整体效率

英特尔在本次合作中再次强调一个长期观点:AI推理工作负载不仅依赖GPU算力,更高度依赖主机CPU的系统调度能力

CPU承担着内存管理、任务协调、负载分配、数据路由等底层工作,这些环节直接影响:

  • 集群整体利用率
  • 端到端推理延迟
  • 企业实际总体拥有成本(TCO)

基于此,英特尔表示,至强6为DGX Rubin NVL8带来了几方面关键价值:

  • 均衡的多核性能与高速内存,适配AI集群稳定运行;
  • 成熟的企业级软件生态,降低部署与迁移成本;
  • 强劲PCIe与I/O带宽,支撑异构混合负载;
  • Priority Core Turbo与优秀单线程性能,保证数据稳定、高效流向GPU。

简单来说:GPU负责“算得快”,CPU负责“让整个系统跑得顺”。

延续至强架构,降低企业升级成本

DGX Rubin NVL8并非完全重构架构,而是在现有DGX B300平台(搭载英特尔至强6776P)的基础上演进而来。

这一设计思路的核心意义在于:

  • 已经使用至强系列搭建AI集群的企业,可以平滑升级到Rubin平台;
  • 软硬件配置、运维体系、生态工具保持连续性,减少替换成本与风险。

英特尔同时提到,至强6与英伟达Dynamo实现新的兼容,支持CPU与新一代GPU之间的异构推理协同,让混合架构的AI流程更高效。

安全能力同步升级:CPU-GPU路径硬件级保护

随着AI推理规模扩大,以及机密计算需求提升,CPU与GPU之间的数据传输安全变得越来越关键。

英特尔表示,至强6内置的信任域扩展(TDX) 可提供硬件级隔离与认证,在数据路径上提供企业级安全能力,满足金融、政务、医疗等高敏感场景对AI隐私与合规的要求。

© 版权声明

相关文章

暂无评论

none
暂无评论...