辉达(NVIDIA)周三公布最新测试数据,显示旗下最新一代 AI 伺服器可让多项新模型的效能提升达 10 倍,包括两款备受瞩目的大陆热门模型。(延伸阅读:辉达禁入中国 黄仁勋:美国不该把整个中国市场让给中国)
AI 产业的重心正从辉达称霸的模型训练阶段,转向应用阶段,也就是让 AI 能真正服务广大用户。在应用市场方面,辉达面临超微(AMD)、Cerebras 等更多竞争对手的挑战。
辉达此次特别著重于「专家混合」(mixture-of-experts, MoE)模型的表现。这种架构透过把问题拆成好几个部分,再分别交给模型内部不同的「专家」处理,借此提升运算效率。今年这项技术爆红,正因为大陆 DeepSeek 在 2025 年初推出一款高效能开源模型,训练所需的辉达晶片远低于同级竞品,震撼全球 AI 社群。
经过DeepSeek的震撼,MoE技术也被 ChatGPT 开发商 OpenAI、法国的 Mistral,以及大陆的 Moonshot AI 采用;其中 Moonshot AI 今年 7 月也推出自家表现亮眼的开源模型。
与此同时,辉达著重强调的是:即使这类模型在训练时用到的辉达晶片较少,但在模型上线服务时,辉达的硬体仍然是能支撑服务的主力。
辉达周三表示,旗下最新一代 AI 伺服器整合 72 颗旗舰晶片於单一系统,并以高速串连,能让 Moonshot 的 Kimi K2 Thinking 模型效能相较上一代辉达伺服器提升 10 倍, 在DeepSeek 模型也有同样增进的效能。
辉达指出,效能大幅跃升,主要来自伺服器能塞进大量晶片,以及晶片之间的高速连结,而这正是辉达目前仍优于竞争对手的关键。
超微也在打造类似、由多颗高效能晶片组成的伺服器,并表示最快明年就会上市。 $(document).ready(function () {nstockStoryStockInfo();});