米Nvidia 次世代AIサーバで推論最大10倍速化

NVIDIAが次世代AIサーバー性能公開 人気モデル処理で最大10倍に

※記事を視覚化したイメージであり、実際の事象とは異なります。

本サイトの記事や画像はAIが公的資料や報道を整理し制作したものです。[続きを表示]ただし誤りや不確定な情報が含まれることがありますので、参考の一助としてご覧いただき、実際の判断は公的資料や他の報道を直接ご確認ください。[私たちの取り組み]

米半導体大手NVIDIAは米国時間12月3日、新しいAIサーバーに関する性能データを公表し、中国で人気の2つの生成AIモデルを含む次世代モデルの処理が従来世代の自社サーバーに比べ最大10倍速くなると説明した。学習用GPU市場で圧倒的な存在感を持つ同社だが、いま競争が激しくなっているのは「学習後」にユーザー向けサービスとしてモデルを動かす段階だ。この発表は、その最前線でNVIDIAがどう優位を保とうとしているのかを映し出している。

利用現場で膨らむ「推論コスト」と10倍の意味

今回NVIDIAが示したのは、新サーバー上で中国Moonshot AIの長文対話モデル「Kimi K2 Thinking」や、中国発の人気オープンソースモデルDeepSeekなどを動かした際、従来の自社サーバーと比べ応答性能がおよそ10倍向上したという結果だ。1台のサーバー筐体に同社の最新GPUを72基詰め込み、高速なチップ間接続で束ねる設計が、性能向上の主な要因だとされる。

対象になったのは「Mixture-of-Experts(MoE)」と呼ばれる方式のモデルで、質問を細かく分解し、内容に応じてモデル内部の複数「専門家」に振り分けて処理する仕組みだ。DeepSeekが2025年初めに公開した高性能モデルがきっかけとなり、一部のタスクで少ないGPUでも高い精度を出せる設計として注目を集めた。いまではOpenAIや仏Mistral、Moonshot AIなど各社がこの方式を取り入れている。

企業側の視点で見ると、「10倍速い」という数字は単なるベンチマークではない。一定のハードウェアで同時接続できるユーザー数を増やしたり、応答時間を短縮してサービス体験を改善したりできる可能性を意味するからだ。一方で、性能向上の源泉がGPU数の大幅な積み増しにある以上、電力や冷却、設置スペースといった運用負荷も増す。別のロイター特集は、AI向けメモリ需要の急増で世界的な供給ひっ迫と価格高騰が起きていると指摘しており、「推論をどこまで増やせるか」は各社の収益計画とも直結している。

NVIDIAの狙いと、中国勢・競合との駆け引き

AI業界ではこれまで、モデルを学習させる「トレーニング」段階で必要となる大量のGPUこそが争点だった。ここではNVIDIAが市場を支配している。しかしサービスとしてモデルを提供する「推論」の段階では、専用チップを開発するAMDやCerebrasなど、競合が増えている。NVIDIAが今回、推論性能を前面に出したのは、MoE型モデルの時代になっても、自社サーバーが依然として最有力の選択肢だと示したい思惑があるとみられる。

背景には、中国勢の動きもある。DeepSeekは少ないNVIDIA GPUでも高性能を出せるオープンソースモデルで注目され、一時は「NVIDIA依存を弱めるのではないか」と市場をざわつかせた経緯があるとTechCrunchなどは伝えている。Moonshot AIも高性能な公開モデルを打ち出し、中国国内での利用が急速に広がった。NVIDIAは、こうした中国発の人気モデルが動く場として自社サーバーを位置づけることで、「たとえ学習で使うチップが多様化しても、配信インフラでは欠かせない存在だ」とアピールした格好だ。

同社は別の発表で、Blackwell世代GPUを搭載した「RTX PRO Servers」を通じ、企業データセンター全体をAI対応へ切り替える構想も示している。一方で、AMDは複数の高性能チップを1台に詰め込む対抗サーバーを来年投入するとしており、クラウド大手のAmazon Web Servicesも自社チップとNVIDIAの高速接続技術を組み合わせた構成で市場を狙う。「誰のサーバーの上で、どの国のモデルをどれだけ動かすのか」という選択は、技術の問題であると同時に、地政学やコスト分担を巡る駆け引きでもある。NVIDIAの10倍サーバーは、その綱引きの力学をいっそう鮮明にしたと言えるだろう。

参考・出典

ニュースはAIで深化する—。日々の出来事を深掘りし、次の時代を考える視点をお届けします。

本サイトの記事や画像はAIが公的資料や報道を整理し制作したものです。
ただし誤りや不確定な情報が含まれることがありますので、参考の一助としてご覧いただき、
実際の判断は公的資料や他の報道を直接ご確認ください。
[私たちの取り組み]