中国百度、M100・M300発表し国内制御の低コスト算力を中国企業に供給へ

中国百度、AI半導体「M100」「M300」発表 国内制御の低コスト算力を中国企業に供給へ

本サイトの記事や画像はAIが公的資料や報道を整理し制作したものです。ただし誤りや不確定な情報が含まれることがありますので、参考の一助としてご覧いただき、実際の判断は公的資料や他の報道を直接ご確認ください。[私たちの取り組み]

壇上に置かれた試作基板の前で、担当者が次々と型番を読み上げた。2025年11月13日、百度ワールドで同社はAI向け新型半導体「M100」「M300」を発表し、中国企業に「強力で低コスト、しかも自国内で制御可能な算力」を供給する計画を示した。推論専用のM100は2026年初め、学習と推論の両対応となるM300は2027年初めの投入を見込む。合わせて複数チップを束ねる新たなシステムと、マルチモーダルに強化した大規模言語モデル「Ernie」の新バージョンも披露した。

自社開発チップで狙う「低コストで管理可能な算力」

発表の中心は2種類の自社開発チップだ。推論(学習済みモデルで結果を出す処理)に特化した「M100」は2026年初めに市場投入する予定で、生成AIの応答や検索の高速化を担う位置づけになる。より大型の学習(大量データでモデルを育てる工程)にも対応する「M300」は2027年初めの発売計画で、学習と推論を1系統で回す構成を想定している。

同社は2011年から独自仕様の半導体を開発してきたが、今回のロードマップはその延長線上にある。背景には先端AI半導体の輸出規制が続く現実がある。自国で調達と運用を完結できる算力の確保は、クラウドや検索、金融など幅広い産業にとって費用とリスクの両面で利点があるとみられる。自社チップは価格と制御性の両立を前面に出し、海外製に依存しない選択肢を増やす狙いだ。

推論と学習の違いは単純だ。学習はモデルに大量の例を見せて「覚えさせる」工程、推論は覚えたモデルを使って回答や予測を「出力する」工程である。M100は後者の効率を高め、M300は両方をカバーする。用途と価格の住み分けが進めば、企業は必要な性能を必要な場面に割り当てやすくなる。

チップを束ねる「スーパーノード」とモデル刷新

個々のチップだけでなく、ネットワーキングで束ねる発想も示した。今回の会場では2種類の「スーパーノード」製品が紹介され、同社の「P800」チップを多数連携させる構成を採る。「Tianchi 256」はP800を256個組み合わせ、2026年上半期に提供開始する計画だ。さらにP800を512個用いる上位版も2026年下半期に続く。単体性能の限界を、接続とソフトで補う設計思想が読み取れる。

モデル面では「Ernie」の新バージョンが登場した。テキストに加えて画像や動画も扱えるマルチモーダル対応を強め、検索や生成、要約から監視・点検の自動化まで適用範囲を広げる構えだ。ハードの更新と並行して基盤モデルの表現力を上げることで、学習環境から推論サービスまで一貫して最適化する狙いが見える。

今回の発表で示されたのは「スケールアウト」の現実解である。M100が先に出て推論の裾野を広げ、学習と推論を兼ねるM300が追う。その間をスーパーノードがつなぎ、既存のP800群を活かしながら全体の算力を底上げする。最終的な実力は供給量やソフト最適化に左右されるが、調達の予見性と運用の一体設計は、現場の選択肢を確実に増やす。

参考・出典

ニュースはAIで深化する—。日々の出来事を深掘りし、次の時代を考える視点をお届けします。

本サイトの記事や画像はAIが公的資料や報道を整理し制作したものです。
ただし誤りや不確定な情報が含まれることがありますので、参考の一助としてご覧いただき、
実際の判断は公的資料や他の報道を直接ご確認ください。
[私たちの取り組み]