中国のAI企業 DeepSeek、少計算で大規模学習可能と論文公開

DeepSeekが学習効率化論文公開、少ない計算量で大規模AI訓練

※記事を視覚化したイメージであり、実際の事象とは異なります。

本サイトの記事や画像はAIが公的資料や報道を整理し制作したものです。[続きを表示]ただし誤りや不確定な情報が含まれることがありますので、参考の一助としてご覧いただき、実際の判断は公的資料や他の報道を直接ご確認ください。[私たちの取り組み]

中国のAIスタートアップDeepSeek(ディープシーク)が、より少ない計算量と電力で大規模AIを訓練する手法をまとめた論文を2025年12月31日に公開した。創業者の梁文峰氏が共著者に名を連ねる。米国の輸出規制で高性能GPUの調達が読みづらいなか、ハードウェア頼みではない「学習の効率化」でOpenAIなどと競う中国側の課題が、研究の形で見えた。

計算量を減らしつつ「大きく学習する」狙い

論文が紹介したのは、mHC(Manifold-Constrained Hyper-Connections、流形制約付きハイパー接続)という枠組みだ。モデルを賢くするには、膨大な計算を長時間回す必要があり、GPU時間と電力がそのまま費用になる。著者らは、規模を大きくしていく局面での訓練の不安定さを抑えながら、計算やメモリアクセスの無駄を減らす設計を目指したとしている。

論文では、既存のHyper-Connections(残差接続を広げ、結び方も増やす考え方)を拡張しつつ、接続の「恒等写像(入力を保つ性質)」が崩れて学習が荒れやすい点を課題に挙げた。mHCは、接続の空間を特定のマニフォールド(制約された形)へ投影することで、その性質を取り戻すという。配線を増やすほど渋滞しやすい回路に、交通整理のルールを入れる発想に近い。

輸出規制下で、研究が「調達リスク」を薄めるか

米商務省産業安全保障局(BIS)は2023年10月、先端計算用半導体と製造装置の対中輸出規制を強化したと発表している。調達の不確実性が高い環境では、最新GPUを前提にした開発計画を組みにくい。だからこそ、同じ設備でも学習を進めやすくする工夫は、研究部門だけでなく事業計画にも直結しやすい。クラウド利用や電力制約を抱える企業ほど、効率化の利点は分かりやすい。

一方で、効率化の成果がそのまま競争力になるかは別問題だ。Business Insiderは、今回の手法を「スケール(大規模化)」の観点で前向きに捉える専門家の見方を伝えた。Reutersは、エヌビディアのジェンスン・フアンCEOが輸出規制を「失敗」と位置づけ、中国側の自立を促したとの認識を示したと報じている。規制が研究を押し上げる面と、市場アクセスや調達の制約が残る面の綱引きが続く。

参考・出典

ニュースはAIで深化する—。日々の出来事を深掘りし、次の時代を考える視点をお届けします。

本サイトの記事や画像はAIが公的資料や報道を整理し制作したものです。
ただし誤りや不確定な情報が含まれることがありますので、参考の一助としてご覧いただき、
実際の判断は公的資料や他の報道を直接ご確認ください。
[私たちの取り組み]