米マイクロソフト 第2世代AIチップ「マイア200」投入 GPU偏重の代替示す

Microsoft、第2世代「Maia 200」投入 AIチップ自社開発加速

※記事を視覚化したイメージであり、実際の事象とは異なります。

本サイトの記事や画像はAIが公的資料や報道を整理し制作したものです。[続きを表示]ただし誤りや不確定な情報が含まれることがありますので、参考の一助としてご覧いただき、実際の判断は公的資料や他の報道を直接ご確認ください。[私たちの取り組み]

Microsoftが第2世代の自社製AIチップ「Maia 200」の投入を、現地時間26日(日本時間27日)に打ち出した。生成AIの需要急増で計算資源の逼迫とコスト高が続く中、自社サービスをより効率的に回しつつ、NVIDIA製GPUに偏りがちな基盤に代替案を示す異例の動きだ。

Maia 200 データセンター稼働開始

新チップはまず、米アイオワ州のデータセンターで運用を始め、次にアリゾナ州フェニックス近郊の拠点にも展開する計画だとGeekWireが報じた。製造はTSMCの3ナノメートル世代プロセスを前提に設計され、クラウド側のAI処理を内製シリコンで支える位置づけになる。

The Vergeによると、Maia 200は1000億個超のトランジスタを積み、推論(インファレンス)用途での効率を強く意識した世代だという。競合のAIチップと性能を直接比較する説明も増え、クラウド大手間の“自前チップ競争”が新局面に入ったことを示唆する。

実運用ではMicrosoft 365 Copilotなどの自社サービスに加え、OpenAIのGPT-5.2を動かす用途にも触れられているとGeekWireが伝えた。社内のAI開発組織(Superintelligenceチーム)の案件から先に適用範囲を広げ、段階的にリージョン展開する構えだ。

開発者囲い込み ソフトと量産が勝負

フォーブスはMaia 200を「推論ファースト」の加速器として位置づけ、低精度演算(FP8/FP4)や高帯域幅メモリーを前提に、PyTorchやTritonなど既存の開発環境に寄せたSDKを用意する点を要所と解説した。The Vergeも学術・オープンソース向けの早期アクセスの取り組みに言及している。

一方で、AmazonのTrainiumやGoogleのTPUなど、クラウド各社が同様に内製チップを育てているとGeekWireが整理する。Maia 200の狙いは性能そのものに加え、「供給」「価格」「ソフト互換」を自社主導に寄せ、NVIDIA依存で生じる調達リスクや交渉力の偏りを薄めることにある。

AI計算基盤の競争軸は、単体チップの速さから「クラウド事業者がどこまで垂直統合し、コストと供給を制御できるか」へ移っている。内製シリコンは差別化であると同時に、サービス継続の保険でもある。勝敗を分けるのは、性能曲線だけでなく、開発者が迷わず移れるソフトの手触りと、量産・展開を止めない運用力だ。

参考・出典

ニュースはAIで深化する—。日々の出来事を深掘りし、次の時代を考える視点をお届けします。

本サイトの記事や画像はAIが公的資料や報道を整理し制作したものです。
ただし誤りや不確定な情報が含まれることがありますので、参考の一助としてご覧いただき、
実際の判断は公的資料や他の報道を直接ご確認ください。
[私たちの取り組み]