IT之家 1 月 6 日消息,在今天举办的 CES 2026 主题演讲中,英伟达首席执行官黄仁勋发表主题演讲,介绍了新一代“Rubin”计算架构,并将其定义为当前 AI 硬件领域的“最先进技术”,该架构已进入全面量产阶段。
Rubin 架构以天文学家薇拉・鲁宾(Vera Rubin)的名字命名,由六款协同工作的独立芯片组成。该系统的核心是 Rubin GPU,同时配备了专为“智能体推理”(Agentic Reasoning)设计的全新 Vera CPU。
为了突破存储和连接瓶颈,英伟达在 Bluefield 和 NVLink 系统中也进行了针对性升级。英伟达 AI 基础设施解决方案高级总监迪翁・哈里斯(Dion Harris)指出,现代 AI 系统(尤其是智能体 AI 和长期任务)对 KV 缓存(Key-Value Cache)的需求给内存带来了巨大压力。为此,Rubin 引入了全新的外部连接存储层,能够更高效地扩展存储池,从而优化工作流。
在性能表现方面,IT之家援引博文介绍,Rubin 架构相较于前代产品实现了显著跨越。根据英伟达官方测试数据,Rubin 在 AI 模型训练任务上的运行速度是 Blackwell 架构的 3.5 倍;在推理任务中,其速度更是达到了前代的 5 倍,峰值运算能力高达 50 Petaflops。
此外,新平台的能效表现同样优异,其每瓦推理算力提升了 8 倍。这一性能飞跃将为日益复杂的 AI 模型提供强大的算力支撑。
Rubin 芯片目前已确定将被几乎所有主流云服务提供商采用,包括与英伟达保持深度合作的 Anthropic、OpenAI 以及亚马逊云科技(AWS)。此外,惠普企业(HPE)的 Blue Lion 超级计算机以及劳伦斯伯克利国家实验室即将推出的 Doudna 超级计算机也将部署 Rubin 系统。
黄仁勋此前曾在财报电话会议上预测,未来五年内,全球在 AI 基础设施领域的投入将达到 3 万亿至 4 万亿美元。