本サイトの記事や画像は、AIが公的資料や複数の報道を基に事実関係を整理・再構成し制作したものです。[続きを表示]特定の報道内容や表現を再利用・要約することを目的としたものではありません。ただし、誤りや不確定な情報が含まれる可能性がありますので、参考の一助としてご覧いただき、実際の判断は公的資料や各出典元の原文をご確認ください。[私たちの取り組み]
メタとAWSは4月下旬、メタの計算基盤に数千万規模のAWS Gravitonコアを組み込む契約を発表した。初期導入後も拡張余地を持たせた大型案件で、メタは世界最大級のGraviton利用者の一社となる。主な対象は、エージェンティックAIの背後で走るリアルタイム推論や検索などのCPU集約型ワークロードだ。
数千万コア導入の拡張計画
今回の契約は一度きりの増強ではなく、立ち上がり後の積み増しも視野に入れた構成だ。対象処理としては、リアルタイム推論、コード生成、検索、複数段階タスクのオーケストレーションが挙げられており、数十億規模のインタラクションを処理しながら複雑な多段エージェントワークフローを動かす基盤を支える。
メタは、単一のチップアーキテクチャだけではすべてのワークロードを効率よく処理できないとして、計算資源の多様化をAIインフラ戦略の中核に据える。自前データセンターや独自ハードウェアへの投資を続けつつ、差別化された能力を持つクラウド事業者も組み合わせる方針で、AWSはその一角を担う。
AWSとの関係は今回が出発点ではない。両社は2021年12月にも、メタがAWSを戦略的クラウドプロバイダーとして位置付ける長期関係の拡大を打ち出しており、今回のGraviton導入はその延長線上にある。AWSはAmazon Bedrockの大規模利用にも触れ、Graviton5に加えてNitro SystemやElastic Fabric Adapterが大規模分散処理を支える要素になるとしている。
AI基盤の役割分担
今回の提携は、GPUをCPUで置き換える動きというより、AI基盤の役割分担を明確にする色彩が強い。メタは大規模モデルの学習ではGPUが引き続き重要だとしながら、実運用段階では推論や検索、コード生成、複数工程をまたぐ処理の調整でCPU需要が急増していると位置付ける。
そのため、AIの価値を前面のモデル性能だけでなく、背後で大量のリクエストをさばき、応答を組み立て、複数の処理をつなぐ計算基盤まで含めて最適化する構えが鮮明になった。Arm系のカスタムCPUを大規模に取り込む判断は、エージェンティックAIの実装が広がる局面で、どの工程にどの半導体を充てるかという設計思想を映している。
契約額や詳細な導入スケジュール等の多くは現時点で未公表だ。しかし、学習はGPU、推論・実装はCPUという役割分担が明確化される中、メタがこの巨大なCPU基盤を自社のどのサービスや研究開発へ優先配分していくのか、その実践規模が今後のAI競争を左右する。
