新年伊始,素有「科技春晚」之称的 CES 2026(Consumer Electronics Show,国际消费电子展)在美国拉斯维加斯拉开序幕。除了具身智能、人形机器人、自动驾驶等仍然占据核心展示位置之外,作为新芯片亮剑的重要秀场,英特尔、AMD、高通、英伟达等厂商之间的激烈角逐也是 CES 上的重头戏。
根据各方爆料,英特尔计划在 CES 上正式发布 Panther Lake 处理器,即酷睿 Ultra 第 3 代。高通将展示骁龙 X2 Elite 和骁龙 X2 Elite Extreme 平台在 PC 上的最新进展。AMD CEO 苏姿丰则是计划在 1 月 5 日晚的主题演讲中发布新版 Ryzen 芯片,例如近期曝光的 Ryzen 7 9850X3D、基于 Zen 5 架构的 Ryzen 9000G 系列。
黄仁勋虽然并未出现在 CES 官方 Keynotes 演讲名单中,但仍在到处赶场站台,尤为值得关注的便是其在 NVIDIA LIVE 中的个人演讲,安排在了北京时间 1 月 5 日凌晨 5 点。外界猜测,老黄将披露 Rubin 平台的最新进度,以及围绕 Physical AI、智能驾驶的相关进展。
黄仁勋也并未令业界失望,在刚刚结束的演讲中,身着标志性黑色皮衣的老黄进一步介绍了这个引入了 5 项创新的 Rubin 平台,并发布了多项开源成果。具体而言:
面向 Agentic AI 的 NVIDIA Nemotron 系列
面向 Physical AI 的 NVIDIA Cosmos 平台
用于自动驾驶研发的 NVIDIA Alpamayo 系列
面向机器人领域的 NVIDIA Isaac GR00T
服务于生物医药领域的 NVIDIA Clara
5 项创新加持,Rubin 恰逢其时
「当前训练和推理的 AI 计算需求正急剧攀升,Rubin 的问世恰逢其时」,黄仁勋对 Rubin 平台寄予厚望,并表示 Rubin 已全面投产,预计于 2026 年下半年正式送达首批用户手中。
聚焦到平台性能方面,Rubin 平台在 6 款芯片之间实现了「极致协同设计(extreme codesign)」,包括 NVIDIA Vera CPU、NVIDIA Rubin GPU、NVIDIA NVLink 6 交换芯片、NVIDIA ConnectX-9 SuperNIC、NVIDIA BlueField-4 DPU 以及 NVIDIA Spectrum-6 以太网交换机。基于此,相比 NVIDIA Blackwell 平台,其可实现推理阶段每 token 成本最高降低 10 倍,以及训练 MoE(混合专家)模型所需 GPU 数量减少 4 倍。
其中,NVIDIA Spectrum-6 Ethernet 是面向 AI 网络的下一代以太网,采用 200G SerDes、共封装光学和 AI 优化网络架构,为 Rubin AI 工厂提供更高效率和更强韧性。基于 Spectrum-6 架构的 Spectrum-X 以太网光子交换系统,在实现 5 倍能效提升的同时,提供 10 倍可靠性和 5 倍更长运行时间。
根据官方介绍,Rubin 平台引入了 5 项创新:
- 第六代 NVIDIA NVLink
为大规模 MoE 模型提供高速、无缝的 GPU-GPU 通信。单 GPU 带宽达 3.6TB/s,Vera Rubin NVL72 机架总带宽达 260TB/s,超过整个互联网的总带宽。NVLink 6 交换芯片内置网络计算能力,加速集合通信,并在可维护性与韧性方面引入新特性,使大规模 AI 训练和推理更快、更高效。
- NVIDIA Vera CPU
专为智能体推理设计,是大规模 AI 工厂中能效最高的 CPU,采用 88 个 NVIDIA 自研 Olympus 核心,全面兼容 Armv9.2,并支持超高速 NVLink-C2C 互连,为现代数据中心工作负载提供卓越性能、带宽和行业领先的能效。
- NVIDIA Rubin GPU
搭载第三代 Transformer Engine,并支持硬件加速的自适应压缩,在 AI 推理中可提供 50 PFLOPS 的 NVFP4 计算性能。
- 第三代 NVIDIA 机密计算
Vera Rubin NVL72 成为首个在机架级实现 NVIDIA 机密计算的平台,在 CPU、GPU 与 NVLink 全域内保障数据安全,保护全球规模最大的专有模型及其训练和推理任务。
- 第二代 RAS Engine
覆盖 GPU、CPU 和 NVLink 的实时健康监测、容错和预测性维护机制,最大化系统生产力;模块化、无缆托盘设计使组装和维护速度相比 Blackwell 提升最高可达 18 倍。
同时,Rubin 平台引入了 NVIDIA 推理上下文内存存储平台,这是一种全新的 AI 原生存储基础设施,旨在实现千兆级规模的推理上下文扩展。该平台由 NVIDIA BlueField-4 驱动,可在 AI 基础设施中高效共享和复用 KV Cache 数据,在提升响应速度和吞吐量的同时,实现可预测、低功耗的智能体 AI 扩展。
Rubin 平台虽仍未真正走出工厂,但已经得到一众大佬的站台支持,在 NVIDIA 官方发布的 blog 中,OpenAI CEO Sam Altman、Anthropic CEO Dario Amodei、Meta CEO Mark Zuckerberg、以 xAI CEO 身份亮相的 Elon Musk 以及微软、谷歌、AWS、戴尔等科技大厂的掌舵人均带来了极高评价——马斯克直言,「Rubin 会再次向世界证明,NVIDIA 是行业的黄金标准。」
多样化开源:Agent、AI4S、自动驾驶、机器人
除了备受关注的 Rubin 平台外,「开源」是黄仁勋本次演讲的另一重要关键词。
首先是面向 AI Agent 的 NVIDIA Nemotron。在此前发布的 NVIDIA Nemotron 3 开放模型与数据基础上,NVIDIA 进一步推出了面向语音、多模态检索增强生成(RAG)和安全性的 Nemotron 模型。
- Nemotron Speech
由多款在榜单中排名领先的开放模型组成,包括全新的 ASR(自动语音识别)模型,可为实时字幕和语音 AI 应用提供低延迟、实时语音识别能力。Daily 和 Modal 基准测试显示,其性能比同类模型快 10 倍。
- Nemotron RAG
包含全新的嵌入模型和重排序视觉语言模型(VLM),可提供高精度的多语言、多模态数据洞察,显著提升文档搜索和信息检索能力。
- Nemotron Safety
用于增强 AI 应用安全性和可信度的模型体系,现已包括 Llama Nemotron 内容安全模型(支持更多语言)以及 Nemotron PII,后者可高精度识别敏感数据。
其次,面向 Physical AI 和机器人领域,NVIDIA 更新了 Cosmos 系列模型:
- Cosmos Reason 2
全新的、在榜单中排名领先的推理型 VLM,帮助机器人和 AI 智能体在物理世界中实现更高精度的感知、理解与交互。
- Cosmos Transfer 2.5 与 Cosmos Predict 2.5
可在多样化环境和条件下生成大规模合成视频。
基于 Cosmos,NVIDIA 还针对不同物理 AI 形态发布了开源模型:
- Isaac GR00T N1.6
一款面向人形机器人的开放推理型视觉-语言-动作(VLA)模型,实现全身控制,并借助 Cosmos Reason 提升推理与上下文理解能力。
- 视频搜索与摘要 NVIDIA Blueprint
隶属于 NVIDIA Metropolis 平台,为构建视觉 AI 智能体提供参考工作流,可分析大量录制与实时视频,以提升运营效率和公共安全。
UY%253D&pos_id=img-vcL13kex-1767704745658)
第三,针对自动驾驶行业,其全新开源了 NVIDIA Alpamayo ——包含开源模型、仿真工具和大规模数据集:
- Alpamayo 1
首个面向自动驾驶车辆(AV)的大规模推理型 VLA 开源模型,使车辆不仅能够理解环境,还能解释自身行为。
- AlpaSim
一个开源仿真框架,支持在多样环境和复杂边缘场景中,对推理型自动驾驶模型进行闭环训练与评估。
此外,NVIDIA 还发布了 Physical AI 开放数据集,包含 1,700 多小时来自全球最广泛地理区域和环境条件的真实驾驶数据,覆盖大量罕见且复杂的现实世界边缘场景,对推进推理架构至关重要。
最后,面向 AI4S 领域,NVIDIA 推出了 Clara AI 模型,包括了:
- La-Proteina
支持设计大规模、原子级精度的蛋白质,用于科研和药物候选开发,为研究以往被认为「不可治疗」的疾病提供新工具。
- ReaSyn v2
在药物发现过程中引入制造蓝图,确保 AI 设计的药物具备可合成性。
- KERMT
通过预测药物与人体的相互作用,在早期阶段提供高精度的计算安全性测试。
- RNAPro
通过预测 RNA 分子的复杂三维结构,释放个性化医疗的潜力。
此外,NVIDIA 还发布了包含 45.5 万个合成蛋白质结构的数据集,帮助研究人员构建更精准的 AI 模型。
结语
当拉斯维加斯的聚光灯再度投向 AI、指向底层硬件支撑,无论是黄仁勋侃侃而谈的 Rubin 平台,亦或是苏姿丰将于今晚揭晓的重磅新品,都不仅仅是在发布一代芯片或一次性能跃迁,更像是在为下一阶段的 AI 发展划定边界:算力如何被组织、成本如何被压缩、模型如何真正走向推理、Agent 与现实世界如何深度耦合。
CES 2026 所呈现的,已不只是厂商之间的规格对决,而是一场围绕 AI 基础设施形态的集体选择。可以确定的是,竞争的重心,正在从模型本身,转向谁能更高效、更稳定地承载智能的规模化落地。
参考资料
1.https://nvidianews.nvidia.com/news/rubin-platform-ai-supercomputer
2.https://blogs.nvidia.com/blog/open-models-data-tools-accelerate-ai/