
Nvidia辉达(另称英伟达)3日公布最新测试数据,显示旗下最新一代AI伺服器可让多项新模型的效能提升达十 倍,包括两款备受瞩目的中国热门模型。
AI 产业的重心正从辉达称霸的模型训练阶段,转向应用阶段,也就是让AI能真正服务广大用户。在应用市场方面,辉达面临超微(AMD)、Cerebras 等更多竞争对手的挑战。
辉达此次特别着重于「专家混合」(mixture-of-experts, MoE)模型的表现。这种架构透过把问题拆成好几个部分,再分别交给模型内部不同的「专家」处理,藉此提升运算效率。今年这项技术爆红,正因为中国DeepSeek 在2025年初推出一款高效能开源模型,训练所需的辉达晶片远低于同级竞品,震撼全球AI社群。
经过DeepSeek的震撼,MoE技术也被ChatGPT开发商OpenAI、法国的Mistral,以及中国的Moonshot AI采用;其中Moonshot AI今年7月也推出自家表现亮眼的开源模型。
与此同时,辉达着重强调的是:即使这类模型在训练时用到的辉达晶片较少,但在模型上线服务时,辉达的硬体仍然是能支撑服务的主力。
辉达3日表示,旗下最新一代AI伺服器整合72颗旗舰晶片于单一系统,并以高速串连,能让Moonshot的Kimi K2 Thinking模型效能相较上一代辉达伺服器提升十倍, 在DeepSeek模型也有同样增进的效能。
辉达指出,效能大幅跃升,主要来自伺服器能塞进大量晶片,以及晶片之间的高速连结,而这正是辉达目前仍优于竞争对手的关键。
超微也在打造类似、由多颗高效能晶片组成的伺服器,并表示最快明年就会上市。

辉达的 GB300 NVL72 AI 伺服器日前在鸿海科技日展出。(美联社)
后参与评论
暂无评论