本サイトの記事や画像はAIが公的資料や報道を整理し制作したものです。[続きを表示]ただし誤りや不確定な情報が含まれることがありますので、参考の一助としてご覧いただき、実際の判断は公的資料や他の報道を直接ご確認ください。[私たちの取り組み]
Microsoftが第2世代の自社製AIチップ「Maia 200」の投入を、現地時間26日(日本時間27日)に打ち出した。生成AIの需要急増で計算資源の逼迫とコスト高が続く中、自社サービスをより効率的に回しつつ、NVIDIA製GPUに偏りがちな基盤に代替案を示す異例の動きだ。
Maia 200 データセンター稼働開始
新チップはまず、米アイオワ州のデータセンターで運用を始め、次にアリゾナ州フェニックス近郊の拠点にも展開する計画だとGeekWireが報じた。製造はTSMCの3ナノメートル世代プロセスを前提に設計され、クラウド側のAI処理を内製シリコンで支える位置づけになる。
The Vergeによると、Maia 200は1000億個超のトランジスタを積み、推論(インファレンス)用途での効率を強く意識した世代だという。競合のAIチップと性能を直接比較する説明も増え、クラウド大手間の“自前チップ競争”が新局面に入ったことを示唆する。
実運用ではMicrosoft 365 Copilotなどの自社サービスに加え、OpenAIのGPT-5.2を動かす用途にも触れられているとGeekWireが伝えた。社内のAI開発組織(Superintelligenceチーム)の案件から先に適用範囲を広げ、段階的にリージョン展開する構えだ。
開発者囲い込み ソフトと量産が勝負
フォーブスはMaia 200を「推論ファースト」の加速器として位置づけ、低精度演算(FP8/FP4)や高帯域幅メモリーを前提に、PyTorchやTritonなど既存の開発環境に寄せたSDKを用意する点を要所と解説した。The Vergeも学術・オープンソース向けの早期アクセスの取り組みに言及している。
一方で、AmazonのTrainiumやGoogleのTPUなど、クラウド各社が同様に内製チップを育てているとGeekWireが整理する。Maia 200の狙いは性能そのものに加え、「供給」「価格」「ソフト互換」を自社主導に寄せ、NVIDIA依存で生じる調達リスクや交渉力の偏りを薄めることにある。
AI計算基盤の競争軸は、単体チップの速さから「クラウド事業者がどこまで垂直統合し、コストと供給を制御できるか」へ移っている。内製シリコンは差別化であると同時に、サービス継続の保険でもある。勝敗を分けるのは、性能曲線だけでなく、開発者が迷わず移れるソフトの手触りと、量産・展開を止めない運用力だ。
