AI新興企業AnthropicのClaude制限で米国防総省が関係縮小検討

米国防総省、Anthropicと契約見直しか 軍事利用の制限巡り対立

※記事を視覚化したイメージであり、実際の事象とは異なります。

本サイトの記事や画像は、AIが公的資料や複数の報道を基に事実関係を整理・再構成し制作したものです。[続きを表示]特定の報道内容や表現を再利用・要約することを目的としたものではありません。ただし、誤りや不確定な情報が含まれる可能性がありますので、参考の一助としてご覧いただき、実際の判断は公的資料や各出典元の原文をご確認ください。[私たちの取り組み]

軍事現場で生成AIをどこまで使えるかが、米政府のAI調達を揺さぶっている。米ニュースサイトアクシオスは2月14日、国防総省がAI新興企業Anthropicとの関係を縮小、あるいは断つ可能性を検討していると、政権当局者の話として報じた。争点は同社が「Claude」の利用に一定の制限を残すよう求めている点にある。

国防総省 Anthropic契約見直し圧力

アクシオスによると、国防総省は主要AI企業に対し、兵器開発や情報収集、戦場での運用を含む「合法な目的」での利用を広く認めるよう求めてきた。一方、Anthropicは「米国内の大規模監視」と「完全自律型兵器」は認めない立場を崩していないとされる。国防総省側は、個別のユースケースごとに線引きを協議する運用は現実的でない、という不満を強めている。

背景には、国防総省の最高デジタル・人工知能局(CDAO)が昨年夏、Anthropicを含む複数社に最大2億ドル規模の契約枠を与え、AI導入を急いできた経緯がある。CNBCは当時、Anthropic、Google、OpenAI、xAIが対象になったと報じた。アクシオスはまた、Claudeが機密ネットワークに入った最初のモデルだとしている。

軍事AIガードレール 機密運用拡大の壁

TechCrunchもアクシオス報道を基に、国防総省が「合法な目的」基準への同意を迫る一方、Anthropicが最も慎重だと伝えた。アクシオスによれば、ChatGPT、Gemini、Grokは非機密環境での利用が進む一方、機密領域への拡大を巡っては交渉が続いている。国防総省は代替の確保を意識しつつも、置き換えは容易ではないとの見立ても示している。

今回の溝は、技術そのものより「運用上の裁量」を誰が握るかにある。大規模監視や自律兵器の定義は境界が曖昧になりやすく、現場での判断と企業側の利用規約が衝突し得る。軍事・情報分野でAIを使うほど、契約条項、監査、責任分担の設計が成果と直結する局面が増える。

軍事目的でのAI活用が広がるほど、調達側は一社ごとの例外運用を嫌い、共通ルールを求めるようになる。一方で開発側は、モデルの信用と安全策を崩せば、国内外の規制や人材確保で不利になる。両者の折り合いは、機密領域でのAI標準を「企業の規約」寄りにするのか、「政府の運用」寄りにするのかを決める作業になる。

参考・出典

本サイトの記事や画像は、AIが公的資料や複数の報道を基に事実関係を整理・再構成し制作したものです。特定の報道内容や表現を再利用・要約することを目的としたものではありません。ただし、誤りや不確定な情報が含まれる可能性がありますので、参考の一助としてご覧いただき、実際の判断は公的資料や各出典元の原文をご確認ください。[私たちの取り組み]

ニュースはAIで深化する—。日々の出来事を深掘りし、次の時代を考える視点をお届けします。

本サイトの記事や画像はAIが公的資料や報道を整理し制作したものです。
ただし誤りや不確定な情報が含まれることがありますので、参考の一助としてご覧いただき、
実際の判断は公的資料や他の報道を直接ご確認ください。
[私たちの取り組み]