本サイトの記事や画像は、AIが公的資料や複数の報道を基に事実関係を整理・再構成し制作したものです。[続きを表示]特定の報道内容や表現を再利用・要約することを目的としたものではありません。ただし、誤りや不確定な情報が含まれる可能性がありますので、参考の一助としてご覧いただき、実際の判断は公的資料や各出典元の原文をご確認ください。[私たちの取り組み]
AIの安全性を掲げてきた企業が、いまは技術そのものよりも「どこまで使わせるか」を巡る政治判断の渦中にある。米Anthropicは、国防総省からサプライチェーンリスクに指定され軍向け利用の縮小を迫られる一方で、強力なAIが社会と雇用に及ぼす影響を扱う新組織「Anthropic Institute」を立ち上げた。事業防衛とルール形成を同時に進める構図が鮮明になっている。
軍事利用対立 研究組織新設
Anthropicの発表とAP通信によると、新組織は3月11日に設立された。より高性能なAIの普及期に向け、研究者や一般社会が使える情報を外部に示すのが狙いで、社内の知見をまとめて政策や公共議論につなげる役割を担う。共同創業者ジャック・クラーク氏が公共利益部門の責任者として率いる。
設立のタイミングは、米政権との対立が深まる局面と重なる。AP通信によれば、国防総省は3月6日、Anthropicと同社製品をサプライチェーンリスクに指定したと正式通知した。背景には、Anthropic側が米国民への大規模監視や完全自律型兵器への利用に歯止めを求め、軍の「合法的な目的への全面使用」要求に応じなかったことがある。
雇用・制度設計へ軸足
アクシオスによると、Anthropic InstituteはAIモデルの限界を検証するレッドチーム、実社会での利用実態を追う部門、雇用や景気への影響を調べる経済研究部門を束ねる。安全性の抽象論にとどまらず、労働市場や法制度への具体的な波及を測る体制に広げた点が特徴だ。
軍事契約を巡る圧力のさなかに研究組織を前面に出したことで、Anthropicは「安全志向の開発企業」から「AI利用の境界線を提案する当事者」へ立場を広げつつある。規制当局や企業が今後問われるのは、性能競争を進めるか否かではなく、どの用途に誰の責任で接続するのかという統治の設計である。
