本サイトの記事や画像は、AIが公的資料や複数の報道を基に事実関係を整理・再構成し制作したものです。[続きを表示]特定の報道内容や表現を再利用・要約することを目的としたものではありません。ただし、誤りや不確定な情報が含まれる可能性がありますので、参考の一助としてご覧いただき、実際の判断は公的資料や各出典元の原文をご確認ください。[私たちの取り組み]
Googleは4月22日、Google Cloud Next ’26で第8世代TPU「TPU 8t」「TPU 8i」を発表した。今回は学習用と推論用を明確に分けた二系統構成を前面に押し出し、AIエージェントを含む高負荷のAIワークロードに対応する基盤設計の見直しを打ち出した。
エージェント実行向け8i、学習向け8t
TPU 8iは、AIエージェントが非常に素早くタスクを完了できるよう設計したと位置付けられている。単なる汎用推論ではなく、推論、計画、多段の実行を低遅延で回す用途を強く意識した構成がにじむ。
一方のTPU 8tは学習向けに最適化され、単一の巨大なメモリプール上で最も複雑なモデルも実行できるとしている。最先端モデルの学習をより大きなメモリ空間で回し、開発サイクルを縮める狙いがうかがえる。
Googleはこの2種類のTPUを、チップ単体ではなく、ネットワークやデータセンター、エネルギー効率の高い運用まで含むフルスタック基盤の一部として示した。複数の主要報道では、こうした構図を自社クラウドのAI基盤差別化と競争激化の布石として捉えている。
TPU二系統化の転換点
前世代のIronwoodまでは単一のチップで学習と推論の双方を担っていたが、今回は8iを推論・エージェント実行、8tを学習に振り分ける形で初めて明確な二系統化に踏み切った点が大きい。従来のように単一の主力製品名で語る段階から、用途別に最適化する段階へ踏み込んだ格好だ。
両チップは2026年後半に一般提供が開始される予定で、8tで121 ExaFlopsの演算能力を提供するなど具体的な性能指標も明かされている。今回の発表は新チップの追加にとどまらず、学習と推論を分けてAI開発と運用の効率を引き上げるインフラ戦略の転換点として、市場の注目を集めそうだ。
