本サイトの記事や画像は、AIが公的資料や複数の報道を基に事実関係を整理・再構成し制作したものです。[続きを表示]特定の報道内容や表現を再利用・要約することを目的としたものではありません。ただし、誤りや不確定な情報が含まれる可能性がありますので、参考の一助としてご覧いただき、実際の判断は公的資料や各出典元の原文をご確認ください。[私たちの取り組み]
米AI新興のAnthropicが3月9日(日本時間10日)、米国防総省による「供給網リスク」認定の差し止めを求めて提訴した。焦点は、安全策を残したまま軍向けAIを提供する企業に対し、政府がどこまで利用条件の撤廃を迫れるかにある。単なる契約争いにとどまらず、国家安全保障とAIガードレールの境界を司法がどう扱うかを問う案件になった。
認定無効求め提訴
カリフォルニア州北部地区連邦地裁の記録によると、Anthropicは宣言的救済と差し止めを求める訴状に加え、一時的差し止め命令と予備的差し止めも申請した。裁判所は初動の審理を3月10日に設定しており、認定の効力を早期に止められるかが当面の争点となる。
ロイターによると、対立は2025年秋の国防総省の生成AI基盤「GenAI.mil」を巡る交渉で深まった。国防総省側はClaudeを「あらゆる適法な目的」に使えるよう求めたのに対し、同社は国内大量監視や、人の関与を欠く致死兵器への利用に歯止めを残そうとした。
その後、国防総省は先週、同社と製品を供給網リスクに指定した。TechCrunchなどの報道では、この措置は国防関連の請負企業にAnthropic製品の利用停止を迫る効果を持ち得るため、連邦契約だけでなく周辺の民間取引にも影響が及ぶ可能性がある。
安全指針と軍需要 衝突
訴状でAnthropicは、今回の指定は安全方針を曲げなかったことへの報復であり、行政手続き法や憲法修正第1条に反すると主張した。政府が安全保障上の調達権限を使って、企業の利用規約や発信内容に事実上の変更を迫った構図だと位置づけている。
もっとも同社は政府向け事業そのものを拒んできたわけではない。ロイターは、機密ネットワーク向けの「Claude Gov」を含め、同社が政府向けにAIを展開してきたと伝えている。争点は軍事案件への参加可否ではなく、用途制限を残したまま受注できるかに移っている。
司法判断が早期に示されれば、AI企業と政府の取引慣行は大きく変わり得る。政府が安全保障を理由に利用条件の撤廃まで迫れる前例が固まれば、各社は独自の安全指針を維持しにくくなる。逆に認定手続きの裁量が絞られれば、今後の調達では性能や価格に加え、統治原則を契約にどう織り込むかが競争軸として前面に出る。
参考・出典
- Anthropic PBC v. U.S. Department of War et al | Northern District of California | United States District Court
- Explainer-Anthropic's case against the government: what the AI company says happened
- Anthropic to challenge DOD's supply chain label in court | TechCrunch
- Anthropic sues Defense Department over supply-chain risk designation | TechCrunch
- AI firm Anthropic sues US defense department over blacklisting | Technology | The Guardian
