在2026英伟达GTC大会上,英特尔正式宣布:全新至强6处理器将作为英伟达DGX Rubin NVL8系统的主机CPU,双方通过CPU与AI平台深度协同,进一步提升大规模AI推理与集群整体效率。
这并非简单的硬件组合,而是两家厂商在AI基础设施层面的一次关键合作。在Core 200 Plus系列处理器发布时,英特尔就已强调至强6产品线对5G、6G网络扩展的重要价值;而此次与英伟达DGX Rubin的绑定,则把重心放在了数据中心、企业级AI场景的实际性能与部署成本上。

DGX Rubin:英伟达下一代AI推理平台
英伟达Rubin平台在CES 2026首次亮相,定位为面向大规模推理与代理型AI模型的下一代架构,目标是解决通信、内存等关键瓶颈,相比Blackwell架构实现更低的单令牌成本与更快的推理速度。
Rubin平台的核心升级包括:
- 全新Transformer引擎,支持自适应压缩,提升NVFP4算力表现;
- 第六代NVLink互连,带宽翻倍,可统一调度多达72个GPU;
- 第三代硬件级机密计算能力,强化安全能力;
- 单GPU带宽达到3.6TB/s,整机总连接吞吐量接近260TB/s。
这些设计让DGX Rubin更适合大模型推理、多智能体协同、大规模并发AI服务等场景。
英特尔:AI推理不只看GPU,主机CPU决定整体效率
英特尔在本次合作中再次强调一个长期观点:AI推理工作负载不仅依赖GPU算力,更高度依赖主机CPU的系统调度能力。
CPU承担着内存管理、任务协调、负载分配、数据路由等底层工作,这些环节直接影响:
- 集群整体利用率
- 端到端推理延迟
- 企业实际总体拥有成本(TCO)
基于此,英特尔表示,至强6为DGX Rubin NVL8带来了几方面关键价值:
- 均衡的多核性能与高速内存,适配AI集群稳定运行;
- 成熟的企业级软件生态,降低部署与迁移成本;
- 强劲PCIe与I/O带宽,支撑异构混合负载;
- Priority Core Turbo与优秀单线程性能,保证数据稳定、高效流向GPU。
简单来说:GPU负责“算得快”,CPU负责“让整个系统跑得顺”。
延续至强架构,降低企业升级成本
DGX Rubin NVL8并非完全重构架构,而是在现有DGX B300平台(搭载英特尔至强6776P)的基础上演进而来。
这一设计思路的核心意义在于:
- 已经使用至强系列搭建AI集群的企业,可以平滑升级到Rubin平台;
- 软硬件配置、运维体系、生态工具保持连续性,减少替换成本与风险。
英特尔同时提到,至强6与英伟达Dynamo实现新的兼容,支持CPU与新一代GPU之间的异构推理协同,让混合架构的AI流程更高效。
安全能力同步升级:CPU-GPU路径硬件级保护
随着AI推理规模扩大,以及机密计算需求提升,CPU与GPU之间的数据传输安全变得越来越关键。
英特尔表示,至强6内置的信任域扩展(TDX) 可提供硬件级隔离与认证,在数据路径上提供企业级安全能力,满足金融、政务、医疗等高敏感场景对AI隐私与合规的要求。















