本サイトの記事や画像は、AIが公的資料や複数の報道を基に事実関係を整理・再構成し制作したものです。[続きを表示]特定の報道内容や表現を再利用・要約することを目的としたものではありません。ただし、誤りや不確定な情報が含まれる可能性がありますので、参考の一助としてご覧いただき、実際の判断は公的資料や各出典元の原文をご確認ください。[私たちの取り組み]
軍事現場で生成AIをどこまで使えるかが、米政府のAI調達を揺さぶっている。米ニュースサイトアクシオスは2月14日、国防総省がAI新興企業Anthropicとの関係を縮小、あるいは断つ可能性を検討していると、政権当局者の話として報じた。争点は同社が「Claude」の利用に一定の制限を残すよう求めている点にある。
国防総省 Anthropic契約見直し圧力
アクシオスによると、国防総省は主要AI企業に対し、兵器開発や情報収集、戦場での運用を含む「合法な目的」での利用を広く認めるよう求めてきた。一方、Anthropicは「米国内の大規模監視」と「完全自律型兵器」は認めない立場を崩していないとされる。国防総省側は、個別のユースケースごとに線引きを協議する運用は現実的でない、という不満を強めている。
背景には、国防総省の最高デジタル・人工知能局(CDAO)が昨年夏、Anthropicを含む複数社に最大2億ドル規模の契約枠を与え、AI導入を急いできた経緯がある。CNBCは当時、Anthropic、Google、OpenAI、xAIが対象になったと報じた。アクシオスはまた、Claudeが機密ネットワークに入った最初のモデルだとしている。
軍事AIガードレール 機密運用拡大の壁
TechCrunchもアクシオス報道を基に、国防総省が「合法な目的」基準への同意を迫る一方、Anthropicが最も慎重だと伝えた。アクシオスによれば、ChatGPT、Gemini、Grokは非機密環境での利用が進む一方、機密領域への拡大を巡っては交渉が続いている。国防総省は代替の確保を意識しつつも、置き換えは容易ではないとの見立ても示している。
今回の溝は、技術そのものより「運用上の裁量」を誰が握るかにある。大規模監視や自律兵器の定義は境界が曖昧になりやすく、現場での判断と企業側の利用規約が衝突し得る。軍事・情報分野でAIを使うほど、契約条項、監査、責任分担の設計が成果と直結する局面が増える。
軍事目的でのAI活用が広がるほど、調達側は一社ごとの例外運用を嫌い、共通ルールを求めるようになる。一方で開発側は、モデルの信用と安全策を崩せば、国内外の規制や人材確保で不利になる。両者の折り合いは、機密領域でのAI標準を「企業の規約」寄りにするのか、「政府の運用」寄りにするのかを決める作業になる。
参考・出典
- Exclusive: Pentagon threatens to cut off Anthropic in AI safeguards dispute (Axios, Feb. 14, 2026)
- Pentagon’s use of Claude during Maduro raid sparks Anthropic feud (Axios, Updated Feb. 13, 2026)
- Anthropic and the Pentagon are reportedly arguing over Claude usage | TechCrunch
- Anthropic, Google, OpenAI and xAI granted up to $200 million for AI work from Defense Department
- CDAO Announces Partnerships with Frontier AI Companies to Address National Security Mission Areas
