米アマゾンAWS、自社AI半導体Trainium3提供で企業計算コストを変えるか

AWSがAI半導体「Trainium3」を提供開始 演算4倍でNVIDIAに挑戦状

※記事を視覚化したイメージであり、実際の事象とは異なります。

本サイトの記事や画像はAIが公的資料や報道を整理し制作したものです。[続きを表示]ただし誤りや不確定な情報が含まれることがありますので、参考の一助としてご覧いただき、実際の判断は公的資料や他の報道を直接ご確認ください。[私たちの取り組み]

生成AI向けの計算需要が世界で膨らむなか、米アマゾンのクラウド事業AWSが12月2日、自社開発のAI半導体「Trainium3」を一般顧客向けに提供し始めた。前世代比で演算性能を4倍に高め、消費電力も抑えたという新チップでNVIDIAやGoogleに挑むこの動きは、AIを使う企業のコスト構造をどこまで変えるのだろうか。

開発現場にとっての「第2の選択肢」

これまで大規模なAIモデルの学習では、NVIDIA製GPUが市場シェアの8~9割を占めると言われ、価格の高止まりや供給制約が開発現場の悩みとなってきた。こうした状況でAWSが前面に押し出すのが、GPUより低コストで高い価格性能比をうたうTrainium3だ。既存のAWSサービスと組み合わせて提供されることで、スタートアップから大企業までが「GPU一択」から脱しやすくなる構図が見えてきた。

実際に、米AIスタートアップAnthropicや複数の企業はTrainium世代のチップを既に試験導入し、モデル学習にかかる時間や費用を圧縮しつつあると各紙は伝えている。日本でも、自社で大規模言語モデルを開発する一部スタートアップが前世代のTrainium2を用い、学習コストを抑えながら日本語特化モデルを育てている例がAWSの紹介事例から確認できる。Trainium3の外販は、こうした「自前モデル」を志向する企業にとって、より大きなモデルを手の届く水準で試せるかどうかの試金石になる。

アマゾンが自前チップに賭ける理由

AWSは今回、Trainium3を144個載せた専用サーバーを用意し、今後数カ月で世界のデータセンターへの展開を一気に加速させる計画だ。前世代比4倍の性能と電力効率の向上をアピールする背景には、自社チップで計算基盤を押さえ、NVIDIAへの依存と仕入れコストを減らしたい思惑がある。クラウド事業者にとって、AI向け半導体はインフラの「原価」に直結するため、自前設計が成功すれば価格競争力と利益率の双方を高められる。

同時に、AWSは依然としてNVIDIA GPUを用いたクラウドインスタンスも提供し続けており、顧客には両者を選び分けてもらう戦略だ。背景には、特定のGPU向けに最適化されたソフトウェア資産をすぐには移行できない現場事情がある。だからこそアマゾンは、Trainium3を単なるチップではなく、自社のAIモデル群や開発ツールと一体で提供し、ソフトウェア面のハードルを下げることで「乗り換えコスト」を埋めようとしている。

NVIDIA・Googleとの競争が利用者にもたらすもの

AIアクセラレーターの市場では、NVIDIAが圧倒的シェアを握る一方、Googleは自社クラウド向けに独自のTPUを展開し、今回のAWSのTrainium3投入で、主要クラウド各社がそれぞれ自前チップを持つ構図が鮮明になった。選択肢が増えることは計算資源の単価を押し下げる圧力となり、結果としてAIサービスを利用する企業の負担軽減につながる可能性がある。

ただし、自社開発チップは特定クラウドに最適化されがちで、企業がある事業でTrainium3、別の事業で他社クラウドの専用チップを使えば、開発体制やノウハウが分散するリスクも生まれる。NVIDIA、Google、AWSに加えAMDなども含めた「選択肢の増加」は、価格や性能だけでなく、将来の乗り換えやすさ、技術負債の大きさまで見越して判断する時代に入ったことを示している。Trainium3が示したのは、AIチップの競争が誰のコストをどこまで減らすのかという、まだ答えの出ていない問いそのものだ。

参考・出典

ニュースはAIで深化する—。日々の出来事を深掘りし、次の時代を考える視点をお届けします。

本サイトの記事や画像はAIが公的資料や報道を整理し制作したものです。
ただし誤りや不確定な情報が含まれることがありますので、参考の一助としてご覧いただき、
実際の判断は公的資料や他の報道を直接ご確認ください。
[私たちの取り組み]