ソフトバンク傘下の英アーム、米NVIDIAのNVLinkをNeoverseに統合へ

アーム×NVIDIA、AI時代の新設計へ NVLink搭載でデータセンターが再構築期に

※記事を視覚化したイメージであり、実際の事象とは異なります。

本サイトの記事や画像はAIが公的資料や報道を整理し制作したものです。[続きを表示]ただし誤りや不確定な情報が含まれることがありますので、参考の一助としてご覧いただき、実際の判断は公的資料や他の報道を直接ご確認ください。[私たちの取り組み]

データセンター向けの新しいチップ設計に向けて、アームが動き始めた。ソフトバンクグループ傘下の英半導体設計企業アームは、NVIDIAの高速接続技術NVLinkを自社のNeoverseプロセッサー群に組み込む方針を示した。AI向け半導体で大きな影響力を持つ両社の連携が深まることで、サーバー用CPUとAIアクセラレーターの関係や、今後のAIデータセンターのつくり方にも変化が広がりつつある。

アームがNVLink採用でAIデータセンターとの結び付きを強める

アームは自社のサーバー・データセンター向けCPU設計であるNeoverseに、NVIDIAの接続技術NVLinkを対応機能として追加する計画を明らかにした。Neoverseはクラウドやスーパーコンピューター向けに最適化されたCPUアーキテクチャで、従来は主に各社が独自に周辺回路を設計して使う形が中心だった。そこにチップ間接続まで含めた「より完成度の高い」設計を提供することで、採用企業がAIサーバーを設計しやすくする狙いが見えてくる。

NVLinkは、GPUや専用AIアクセラレーターなど複数の半導体チップを高い帯域で直結する接続規格で、NVIDIAのAIシステムでは中核となる技術だ。アームのNeoverseがNVLinkに対応すれば、ArmベースのCPUとNVIDIA製AIアクセラレーターを密接に連携させたサーバー構成を取りやすくなる。特に大規模言語モデルの学習や推論のように、多数のGPUとCPUが協調して動く用途では、その設計自由度の向上がサーバーメーカーの選択肢を増やすことにつながる。

アームを率いるルネ・ハースCEOは、スマートフォン向けに偏ってきたビジネス構造からの脱却を目標に掲げてきた。スマホ用CPU設計で築いた省電力とライセンスモデルの強みを、データセンターや自動車、産業機器といった分野にも広げる戦略だ。今回のNVLink対応は、AIサーバーという高付加価値の市場で存在感を高めるための一手と位置付けられ、単なる機能追加ではなく収益源の多様化を意識した動きといえる。

NVLinkが支える大規模AI計算とその広がり

NVLinkは当初、NVIDIA製GPU同士を高速につなぐために開発された。並列動作する多数のGPUに同時に学習データを流し込み、互いの計算結果を素早く共有することで、AIモデルの学習時間を短縮する役割を担ってきた。従来広く使われてきたPCIe接続と比べて帯域幅やレイテンシーの面で優位性があり、膨大なデータを扱うAIワークロードでは事実上の標準的な接続手段となりつつある。

NVIDIAは2022年3月22日に、チップ同士を直接つなぐNVLink-C2Cという技術を発表し、自社GPUやCPUに加えて、外部企業が設計するカスタムチップとも連携できる道を開いた。さらに2025年5月19日には、複数メーカーのCPUやAIチップを組み合わせた半カスタムAIインフラを構築しやすくするNVLink Fusionも打ち出している。こうした動きは、NVLinkを単なるNVIDIA専用の内部技術から、幅広い半導体メーカーが参加する「計算ファブリック」へと位置付け直すものだ。

アームのNeoverseがNVLinkに対応することは、この広がりつつあるNVLinkエコシステムにCPU設計の側から参加することを意味する。AIアクセラレーター側だけでなく、CPU側も同じ接続基盤を意識して設計されることで、サーバーメーカーはCPU・GPU・DPUといった異なるチップを組み合わせた構成を柔軟に選びやすくなる。AI専用データセンターの設計が「箱ごと買う」形から、用途に応じて部品を選ぶスタイルへと移り変わる中で、NVLink対応のArm CPUは1つの重要な選択肢として扱われていきそうだ。

スマホ依存からの転換を進めるアームの成長戦略

アームは長年、スマートフォン向けCPU設計のライセンスで成長してきたが、市場の成熟と端末出荷台数の伸び鈍化に直面している。その一方で、クラウドやAI関連のデータセンターでは、電力効率に優れたArmベースのCPUへの期待が高まりつつあり、各社がNeoverseコアを採用したサーバーCPUを打ち出している。NVIDIAのGrace CPUシリーズもNeoverseコアを基盤としており、両社はすでにCPUレベルでの協業実績を積み重ねている。

今回のNVLink対応は、そうした協業関係を一段階進める取り組みだと受け止められる。アームがインターコネクトを含めた完成度の高い設計を提供できれば、チップメーカーは基盤設計を一から作り込む負担を減らし、自社仕様のAIサーバー向けCPUをより短期間で市場に投入しやすくなる。アームにとっては、ライセンスフィーやロイヤルティーの対象がスマホだけでなく、AI向けデータセンターという成長分野に広がることになり、中長期の収益基盤を厚くする効果が期待される。

AIインフラを巡っては、x86系CPUとNVIDIA GPUの組み合わせが現在も主流だが、電力効率やカスタマイズ性を重視する動きの中で、ArmアーキテクチャとNVLinkを組み合わせた新たな選択肢が静かに存在感を増している。アームがどこまでデータセンター市場に食い込み、NVIDIAとの連携を通じてどのようなサーバー像を提示していくのか。AI時代の計算基盤づくりの舞台裏で、その動きは今後も注目を集めていくだろう。

参考・出典

ニュースはAIで深化する—。日々の出来事を深掘りし、次の時代を考える視点をお届けします。

本サイトの記事や画像はAIが公的資料や報道を整理し制作したものです。
ただし誤りや不確定な情報が含まれることがありますので、参考の一助としてご覧いただき、
実際の判断は公的資料や他の報道を直接ご確認ください。
[私たちの取り組み]