本サイトの記事や画像は、AIが公的資料や複数の報道を基に事実関係を整理・再構成し制作したものです。[続きを表示]特定の報道内容や表現を再利用・要約することを目的としたものではありません。ただし、誤りや不確定な情報が含まれる可能性がありますので、参考の一助としてご覧いただき、実際の判断は公的資料や各出典元の原文をご確認ください。[私たちの取り組み]
米国防総省による生成AI導入を巡り、運用の自由度を求める政府側と、利用制限を維持したい開発企業側の姿勢の違いが表面化した。Anthropicは24日(ニューヨーク、 日本時間25日)、軍事利用に関する安全措置を緩和する考えはないと、関係者の話として明らかになった。
国防総省 AI軍事運用拡大圧力
ロイターによると、Anthropicのダリオ・アモデイCEOは24日、ピート・ヘグセス国防長官と会談した。米政府が用途の拡大を求める一方、同社は自社モデルが自律兵器や米国内の監視に転用されるのを防ぐ仕組みを維持する構えだという。関係者は、国防総省側が27日までの回答を求めたとも説明している。
同社は声明で、国家安全保障の任務を支えつつも、モデルが「確実かつ責任ある形」で動く範囲を守るため、利用ポリシーを巡る誠実な対話を続けたとしている。共同通信によると、国防総省はAI企業に対し「合法的なあらゆる用途」での利用を認めるよう求めており、条件面の折り合いがつくかが焦点となる。
安全策維持 企業側の線引き
AP通信によると、国防総省はAnthropicに対し、軍での利用に内蔵の制約がある状態を問題視している。協議が決裂した場合、供給網のリスクと位置付ける案や、国防生産法の適用で提供を迫る可能性も取り沙汰されている。
アモデイ氏は、標的選定を人の関与なしに自動化する運用や、国民を対象にした大規模な監視への利用に懸念を示してきた。AP通信は、国防総省が昨夏、Anthropicを含む複数社と最大2億ドル規模の契約を結んだ経緯も伝えており、政府調達の枠組みの中で「どこまで企業の安全基準を尊重するか」が問われている。
政府が「適法なら制約不要」と整理すれば、調達権限を背景に民間の利用規約へ介入する道が広がる。一方で企業が歯止めを手放さなければ、軍向けに機能や責任分界を切り分けた専用モデルが増え、監督体制と説明責任を契約で細かく詰める流れが強まる。
