本サイトの記事や画像は、AIが公的資料や複数の報道を基に事実関係を整理・再構成し制作したものです。[続きを表示]特定の報道内容や表現を再利用・要約することを目的としたものではありません。ただし、誤りや不確定な情報が含まれる可能性がありますので、参考の一助としてご覧いただき、実際の判断は公的資料や各出典元の原文をご確認ください。[私たちの取り組み]
生成AIの開発競争の裏側で、他社モデルの出力を使った「蒸留」をめぐる対立が表面化した。米Anthropicは23日(米国時間、日本時間24日)、大型言語モデル「Claude」から能力や知識を不正に引き出されたとして、中国のAI企業3社を名指しで問題視した。
Claude蒸留攻撃 中国AI3社名指し
Anthropicの公式声明によると、DeepSeek、Moonshot AI、MiniMaxが、Claudeの出力を大量に集めて自社モデルの性能向上に転用した疑いがあるという。約2万4000の不正アカウントが作られ、Claudeとのやり取りは累計1600万回超に上ったとしている。内訳はDeepSeekが15万回超、Moonshot AIが340万回超、MiniMaxが1300万回超だった。
同社は、これらの行為が利用規約に反するだけでなく、地域のアクセス制限も潜脱したとみている。Claudeは中国で商用提供されていないため、外部のプロキシなどを使ってアクセス経路を隠しつつ、短期間に集中的な問い合わせを投げる手口が取られた可能性がある。
「蒸留」は本来、高性能な「教師」モデルの出力を見本にして、より小型で安価な「生徒」モデルを訓練する一般的な手法だ。自社モデルの軽量版を作る目的などで広く使われる一方、競合の出力を無断で学習素材にすると、研究コストと時間を大きく圧縮できる。
安全策と業界対応 検知技術と規制論
米メディアThe Vergeによると、AnthropicはDeepSeekが推論能力を狙ったほか、政治的に敏感な質問に対する「検閲に配慮した答え」を作る用途にもClaudeが使われたと主張している。ガーディアンも、こうして作られたモデルは安全上の歯止めが弱まりやすく、監視や偽情報拡散、サイバー攻撃などへの転用につながり得るという同社の懸念を伝えた。
Anthropicは、蒸留の悪用を前提にした防御が必要だとして、異常な利用パターンの検知を進める考えを示した。加えて、クラウド事業者や政策担当者も含めた連携を求め、強力な計算資源へのアクセス管理を含む対策議論を促している。
蒸留の線引きは、技術の正当性だけでは決まりにくい。API利用の設計、本人確認やレート制限、利用規約の執行、さらに国境をまたぐ法執行の実効性がそろって初めて抑止が働く。開発競争が続く限り、盗用側の費用対効果が高い状況をどう崩すかが各社に突き付けられる。
