本サイトの記事や画像は、AIが公的資料や複数の報道を基に事実関係を整理・再構成し制作したものです。[続きを表示]特定の報道内容や表現を再利用・要約することを目的としたものではありません。ただし、誤りや不確定な情報が含まれる可能性がありますので、参考の一助としてご覧いただき、実際の判断は公的資料や各出典元の原文をご確認ください。[私たちの取り組み]
米商務省・国立標準技術研究所(NIST)傘下のCAISIは2026年5月5日、Google DeepMind、マイクロソフト、xAIとの新協定を発表した。一般公開前のフロンティアAIモデルについて、米政府が配備前評価を行える枠組みを広げる内容で、最先端AIがどのような能力を持ち、国家安全保障に関わるリスクを伴うのかを把握することが主眼だ。
公開前モデルを対象にした評価網の拡大
新協定は、AIモデルが一般に使われる前の配備前評価に加え、公開後の評価、対象を絞った研究、情報共有、機密環境での試験を可能にする。ここでいうフロンティアAIは、通常のチャットボットにとどまらず、サイバー攻撃支援や生物・化学分野の悪用につながり得る高度な能力を持つ最先端モデルを指す。
CAISIはすでに40件超の評価を完了しており、その中には未公開の最先端モデルも含まれる。制度は構想段階ではなく、企業からモデルの提供を受け、政府側が実際に能力やリスクを測定する運用段階に入っている。
国家安全保障に関わる能力を正確に測るため、開発企業は安全策を弱めた、または外したモデルをCAISIに提供する場合がある。通常の安全フィルターが働いた状態だけでは、モデル本来の危険な能力を見落とすおそれがあるためだ。評価には政府横断で参加でき、CAISIが招集するTRAINSタスクフォースを通じて定期的なフィードバックが行われる。
承認制度ではなく自主的な安全保障評価
CAISIは2025年6月3日、従来の「US AI Safety Institute」から改組・改称された組織である。商務省はその時点で、民間AI開発企業との自主的協定や国家安全保障上のリスク評価を担う政府内の主要窓口と位置付けていた。商用AIシステムの試験、共同研究、ベストプラクティス整備を集約する役割も与えられている。
今回の協定は、米政府が新しいAIモデルの公開を事前に承認する制度ではない。公開許可制や強制審査ではなく、先端モデルの能力とリスクを政府が測定し、企業側と研究・評価を進めるための枠組み拡大である。規制当局が「出してよいか」を決める仕組みではなく、安全保障上の見落としを減らすための評価ルートを太くする措置といえる。
一方で、各社がどのモデルを、どの段階で、どの条件で評価に回すのかは公表されていない。評価結果が企業の公開判断やモデル修正にどこまで影響するのか、拘束力があるのかも明らかではない。今回示されたのは、最先端AIをめぐる米政府と主要開発企業の接点が、公開前の段階にまで広がったという事実である。
参考・出典
- CAISI Signs Agreements Regarding Frontier AI National Security Testing With Google DeepMind, Microsoft and xAI | NIST
- Statement from U.S. Secretary of Commerce Howard Lutnick on Transforming the U.S. AI Safety Institute into the Pro-Innovation, Pro-Science U.S. Center for AI Standards and Innovation | U.S. Department of Commerce
