英伟达黄仁勋:AI 芯片是一锤子买卖,但软件开发需终身维护

文章报道了英伟达首席执行官黄仁勋在CES 2026媒体问答会上的发言,强调了AI行业进入'Token经济学'时代,核心指标是'每瓦/每美元能生成多少Token'。英伟达坚持统一的内存架构和软件栈,以避免软件生态碎片化,并在长周期内实现更优的总体拥有成本(TCO)。此外,文章还介绍了Vera Rubin平台的模块化突破,包括支持在系统运行时直接更换组件、大幅降低运维成本、提升供应链效率等。黄仁勋还提到供电稳定性是当前算力扩张的'最大瓶颈',Rubin平台通过系统级电子设计解决了这一问题。

1 月 10 日消息,科技媒体 Tom's Hardware 今天(1 月 10 日)发布博文,报道称在 CES 2026 媒体问答会上,针对市场上采用廉价内存以降低成本的声音,英伟达首席执行官黄仁勋反驳道:“芯片是一锤子买卖,但软件开发需要终身维护。”

黄仁勋强调,AI 行业已进入“Token 经济学”时代,核心指标是“每瓦 / 每美元能生成多少 Token”。

英伟达坚持统一的内存架构和软件栈,虽然硬件成本较高,但能避免软件生态碎片化。这意味着,当 Nvidia 优化一个软件栈后,全球所有基于该架构的 AI 工厂都能同步获得性能提升,从而在长周期内实现更优的总体拥有成本(TCO)。

谈及行业趋势,黄仁勋透露了一个关键数据:开源模型目前已贡献了全球约四分之一的 Token 生成量。这一“意料之外”的爆发式增长,极大地拓展了 AI 的部署场景,从超大规模云厂商延伸至企业本地集群。

黄仁勋在问答中还详细展示了 Vera Rubin 平台的模块化突破。相比以往 Grace Blackwell 系统一旦故障需整机架下线的情况,Rubin 采用了托盘式架构,支持在系统运行时直接更换 NVLink 等组件,实现“边跑边修”。

IT之家援引博文介绍,这种设计不仅大幅降低了运维成本,更彻底重构了供应链效率:**节点的组装时间从过去的 2 小时惊人地缩减至 5 分钟。**此外,Rubin 平台摒弃了繁杂的线缆设计,并从 80% 液冷升级为 100% 全液冷,进一步提升了系统的可靠性。

供电稳定性被黄仁勋称为当前算力扩张的“最大瓶颈”。由于现代 AI 负载(尤其是推理任务)会引发剧烈的瞬时功耗跳变,电流波动幅度往往高达 25%,迫使数据中心不得不闲置大量电力以应对峰值。

Rubin 平台通过系统级电子设计,在机架内部“平滑”了这些波动,即便单颗 GPU 的热设计功耗(TDP)高达 1800W,也能向外部电网呈现稳定的负载曲线。这种设计让运营商无需过度冗余配置,从而能接近 100% 地利用电力容量。

版权声明:本站文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明出处!

评论加载中...