米国防総省が米Anthropicに安全策解除要求、標的自動化と国内監視の懸念

AnthropicのAI技術、軍事転用巡り攻防 国防総省が制限緩和要求

※記事を視覚化したイメージであり、実際の事象とは異なります。

本サイトの記事や画像はAIが公的資料や報道を整理し制作したものです。[続きを表示]ただし誤りや不確定な情報が含まれることがありますので、参考の一助としてご覧いただき、実際の判断は公的資料や他の報道を直接ご確認ください。[私たちの取り組み]

米国防総省と生成AI企業Anthropicの間で、AIの軍事利用に関する「歯止め」をどこまで外すかが争点となっている。事情に詳しい関係者によると、政府側が同社の技術を使い、武器の標的選定を自動化したり、国内監視に転用したりできるよう、利用上のセーフガード解除を求める可能性があるという。最先端AIを国家安全保障へ取り込む流れが加速する一方、企業が掲げる安全原則との衝突が表面化した。

セーフガード解除要求 標的選定と国内監視が焦点

対立の中核は、AIの出力を「人が判断する補助」にとどめるのか、それとも「機械が判断し実行に近づく領域」まで許容するのか、という線引きにある。関係者の話では、政府が求める運用には、標的の自動抽出や優先順位付けといった武力行使に直結し得る用途、さらに国内の監視活動を効率化する用途が含まれ得る。

Anthropic側にとっては、こうした用途は誤認や偏りがそのまま人命・人権に跳ね返るうえ、運用の透明性や説明責任を担保しにくい。セーフガードは通常、特定の高リスク用途を禁止・制限し、逸脱を検知するための仕組み(利用規約、技術的制限、監査手順など)で構成されるため、解除は実質的に「許容範囲の拡大」を意味する。

一方で国防分野は、速度と規模が価値になる。作戦環境での情報処理、膨大な文書の解析、脅威評価の迅速化など、AIの導入余地は大きく、現場が求める実用性と企業の安全設計が同じ方向を向くとは限らない。

契約拡大の裏側 Claude Govと安全基準

米国防総省のChief Digital and Artificial Intelligence Office(CDAO)は昨年7月14日、Anthropic、Google、OpenAI、xAIの4社に対し、各最大2億ドル枠の契約を付与したと発表した。狙いは、複数の任務領域で「エージェント型」のAIワークフロー開発を進め、国防組織全体で先端AIの適用を広げることにある。

Anthropicも同日、2年の試作契約を受けたと公表し、防衛組織とともに影響の大きい用途を選定して試作することや、敵対的な悪用を見越したリスク低減、技術データの共有などを掲げた。さらにThe Vergeは昨年6月5日、国防・情報機関向けに「Claude Gov」を投入し、一般向けより制約を調整したモデルを提供すると伝えている。CNBCによると同社は昨年5月、モデル悪用による兵器関連リスクを抑えるため、より厳格な安全レベル(ASL-3)を適用したとも説明しており、事業拡大と安全強化を並行させる姿勢を示してきた。

先端AIの調達が常態化すると、「安全か危険か」ではなく「どの用途に、どの条件で、誰が責任を負うか」という制度設計が中心課題になる。国防組織は任務達成のための柔軟性を求め、企業は社会的受容と事故時の責任を意識して制限を残そうとする。今後は、致死性を伴う意思決定や国内監視のような高リスク用途を明確に区分し、第三者監査・記録保持・権限管理を含む運用基準を契約と技術の両面で具体化できるかが焦点となる。

参考・出典

ニュースはAIで深化する—。日々の出来事を深掘りし、次の時代を考える視点をお届けします。

本サイトの記事や画像はAIが公的資料や報道を整理し制作したものです。
ただし誤りや不確定な情報が含まれることがありますので、参考の一助としてご覧いただき、
実際の判断は公的資料や他の報道を直接ご確認ください。
[私たちの取り組み]