本サイトの記事や画像は、AIが公的資料や複数の報道を基に事実関係を整理・再構成し制作したものです。[続きを表示]特定の報道内容や表現を再利用・要約することを目的としたものではありません。ただし、誤りや不確定な情報が含まれる可能性がありますので、参考の一助としてご覧いただき、実際の判断は公的資料や各出典元の原文をご確認ください。[私たちの取り組み]
OpenAI、Anthropic、Googleが、中国企業による「敵対的蒸留」への対抗で情報共有を進めていると、ブルームバーグが4月6日に報じた。3社は業界団体Frontier Model Forumを通じ、利用規約に反して先端モデルの出力や能力を吸い上げる行為の検知強化を進めているという。
Frontier Model Forumで共有 正当な蒸留と無断抽出を区別
ブルームバーグによると、3社は2023年にマイクロソフトとともにFrontier Model Forumを設立し、敵対的蒸留の兆候を見つけるための情報共有を始めた。ここで問題視されているのは、APIやクラウド経由で高性能モデルに大量の照会を行い、得られた出力や能力を競合モデルの訓練に回す、無断の抽出だ。
一方で、蒸留そのものは大規模モデルの知識を小型で安価なモデルに移す一般的な手法でもある。Frontier Model Forumが2月23日に公表したブリーフも、正当な蒸留と敵対的蒸留を明確に分けたうえで、後者は安全対策や運用上の制御を伴わないまま中核能力だけを複製しかねないと警告している。
Anthropicが大規模抽出を公表 OpenAIは議会文書で戦略リスク指摘
Anthropicは2月23日、中国のDeepSeek、Moonshot、MiniMaxが自社モデルClaudeの能力を不正に抽出する大規模なキャンペーンを行っていたと公表した。Anthropicによると、3社は約2万4000件の不正アカウントを通じて1600万件超のやり取りを重ね、APIと第三者クラウド基盤にまたがる代理・転売ネットワークを使っていた。MiniMaxの事例では1300万件超のやり取りがあり、新モデル公開後24時間以内に攻撃側の通信の大きな比率が新モデルの能力取得へ切り替わったとしている。
Anthropicは対抗策として、蒸留攻撃のパターンを見つける分類器や行動指紋の分析、推論過程の抽出を狙う活動の検知を挙げた。OpenAIも2月12日付の米下院中国特別委員会向け更新文書で、敵対的蒸留は米国にとってコスト、安全、商業、戦略の面で深刻なリスクになると訴えた。Google側も、Geminiの悪用を追跡し、技術シグナルを相関して検知する取り組みを外部共有している。
今回の動きは、モデルの不正利用対策が個社の利用規約違反の監視にとどまらず、先端AIの能力流出をどう抑えるかという業界横断の課題に広がっていることを示している。各社にとっては、性能競争と並行して、防御の仕組みをどこまで共通化できるかが次の争点になりそうだ。
