AIの開発競争が激化する中、米国政府が異例の動きに出た。AIを世に出す前に、政府がそのAIを先にテストする——そんな仕組みに、米国の主要AI企業5社すべてが同意した。規制を嫌うシリコンバレーにとっては、小さくない変化だ。
米主要5社が出揃った
2026年5月5日、米商務省傘下の評価機関「CAISI(カイシ)」が、Google DeepMind・Microsoft・xAIとの合意を発表した。これに先立ちOpenAIとAnthropicはすでに同様の合意を結んでいた。これで、生成AIの最前線を走る米国主要5社が全員、政府の「公開前チェック」を受ける体制に入ったことになる。これは初めてのことだ。
CAISIはもともと「AI安全研究所(AISI)」という名称だったが、トランプ政権下で組織と名称が変わった。NIST(米国立標準技術研究所)の傘下で、最先端AIの評価を担う機関だ。
合意の内容はシンプルだ——各社は、まだ一般に公開していない最新AIモデルを、リリース前に政府へ提供してテストを受ける。サイバー攻撃への悪用や、生物・化学兵器の開発支援といった危険な用途に転用できるかどうかが、主な評価の焦点になる。しかも、このテストは通常の状態で行われるわけではない。AIに設定されている安全上の制限(ガードレール)をあえて取り除いた状態で評価される。つまり、「歯止めのないAI」として何ができるかを政府が確かめる、ということだ。
CAISIの公式発表によれば、すでに40以上のAIモデルの評価が完了した。これは紙の上の合意ではなく、実際に動いている仕組みだ。
審査で何をしているのか
ガードレールを外して提出
ガードレールとは、AIが有害な情報を出さないよう設定された「制限」のことだ。「爆発物の作り方を教えて」と聞いても答えない、違法な内容の文章は書かない——そうした制御が、製品として出荷される前に組み込まれている。
政府審査では、その制限を意図的に外した状態のモデルを企業が提出する。安全に見せるために整えた状態ではなく、このAIが本当は何ができるのかを、素の性能で確かめるためだ。
兵器転用リスクを機密で測定
審査で確かめるのは、大きく2つだ。
- 1つは、ソフトウェアの欠陥(脆弱性)を見つけて悪用する能力。企業や政府のシステムには、まだ誰にも発見されていない欠陥——「ゼロデイ脆弱性」と呼ばれる——が無数に潜んでいる。それを人間の専門家より速く大量に見つけられるAIは、サイバー攻撃の強力な道具になりうる。
もう1つは、生物兵器や化学兵器の製造を助ける能力だ。高度な専門知識が参入障壁だったこの分野に、AIが橋渡しをしてしまう恐れがある。
審査が本格化した直接のきっかけは、Anthropicが2026年4月に公開した新モデル「Claude Mythos(クロード・ミトス)」だ。Mythosは政府との評価提携のテスト中に、主要なソフトウェアのゼロデイ脆弱性を数千件にのぼる規模で発見した。人間のハッキング専門家が見逃していたものを、AIが短時間で洗い出した——この事実が審査体制の強化を決定的に後押しした。
機密性の高い評価は、外部から完全に遮断された専用環境で、複数の政府機関から集められた専門家チームが担う。結果は開発企業へフィードバックされる仕組みになっている。
審査の目的が変わった
トランプ大統領は就任直後の2025年1月、前政権が定めたAI規制の大統領令を廃止した。AIへの政府介入を嫌うシリコンバレーの論理と、政権の方針は重なっていた。
それから1年余り。同政権は今、AI企業5社を政府審査の枠組みに取り込んでいる。
この一見矛盾した動きを解くカギは、機関の名称変更にある。バイデン政権下では「AI安全研究所(AISI)」と呼ばれていた機関が、トランプ政権下で「CAISI(カイシ)」に改称された。「安全(Safety)」という言葉が消え、「AI安全・安全保障インキュベーター」という名称になった。このとき、評価の軸も動いた。
旧来の「AI安全」が扱っていたのは、倫理や公平性の問題だ——AIが差別的な出力をしないか、偽情報を広めないか。前政権が廃止対象にしたのはこの種の規制だった。CAISIが今やっていることは、それとは別の話だ。「このAIは兵器の設計に使えるか」「サイバー攻撃に転用できるか」——そういう問いに答えるための評価になっている。
目的が変わった。「安全かどうか」を判断するのではなく、「どんな危険な能力があるか」を政府が先に把握する——それが今の審査だ。
その性格が最もはっきり出ているのが、中国製AI「DeepSeek(ディープシーク)」の評価だ。DeepSeekは2025年初頭、わずかなコストで米国製に匹敵する性能を示したとして話題になった中国発のAIだ。CAISIはこのモデルも評価対象に加えた。米国製AIとの能力比較を行うためだ。「安全かどうか」ではなく「どちらが上か」——審査の重心はそこに移りつつある。
トランプ政権のAI戦略文書「AI Action Plan(AIアクション・プラン)」は、AIを「米国の競争力と安全保障の核心」と位置づけている。米国はバイデン政権下の2024年に英国のAI安全機関とも評価協力の協定を結んでおり、国際的な比較評価の枠組みはすでに存在する。国際的なAI競争の中で、米国製AIの位置づけを把握することに、審査の本当の意味がある。
「規制を外す」と言っていた政権が「監視を強める」側に回った。AIが倫理問題から安全保障問題に格上げされた瞬間だ。
未審査AIが採用リスクになる
政府の審査体制が整い始めたことで、企業のAI選定に新しい判断軸が加わりつつある。「使えるか」「コストは妥当か」だけでなく、「政府の審査を通っているか」が問われるようになった。
連邦政府との取引がある企業にとって、この変化は他人事ではない。政府調達の基準が審査済みモデルに傾いた場合、未審査のAIを業務に組み込んでいることが、契約や入札上のリスクになりかねない。業界アナリストのNick Patience(Futurum Group)らは、政府関連の契約を持つ企業が未審査AIを採用することは「国家安全保障上のリスク」と見なされる可能性があると指摘している。
ただし、「審査済み=安全」という等号は成り立たない。CAISIの審査はサイバー攻撃や兵器転用リスクの評価が中心だ。個人情報の扱いや差別的な出力は、審査の外にある。政府のお墨付きが取れるのは、ある特定の種類のリスクに対してだけだ。
そして、この枠組みに入っているのは米国主要5社だけだ。会社に黙って社員がAIを業務に持ち込むケースや、海外製のモデル、新興企業のAI、社内で独自開発したシステム——それらは今後も審査なしに企業の現場へ入ってくる。枠組みが整うほど、その外側にいるAIの存在が際立つという構図でもある。
それでも、企業はAI導入の速度を落とせないでいる。調査会社トレンドマイクロによれば、企業の意思決定者の67%が、セキュリティ上の懸念があっても「競合他社に遅れたくない」という理由でAI導入の承認を迫られていると感じている。「速く使う」か「審査済みを選ぶ」か——その選択が、担当者の机の上に置かれるようになった。
