セキュリティ株が急落した日
2026年2月20日、金曜日。AI企業Anthropicがコードのセキュリティ検査に特化した新ツール「Claude Security」のプレビュー版を発表した直後、アメリカの株式市場でセキュリティ関連銘柄が一斉に崩れた。
最も激しく売られたのはソフトウェア開発向けセキュリティ会社のJFrogで、一時25%安。企業向けサイバーセキュリティ大手のCrowdStrikeとZscalerもそれぞれ約11%安まで下落した。1日でセキュリティセクター全体から150億ドル——日本円にして約2兆2000億円——相当の価値が消えた。市場ではのちにこの日を「Anthropicショック」と呼ぶようになった。
投資家が恐れたのは、技術の優劣の話ではなかった。「AIがコードの欠陥——いわゆる脆弱性——を自動で見つけて、そのまま修正までこなすなら、既存のセキュリティ会社は何を売ればいいのか」。その問いが、世界中の運用者の頭を直撃した。
なぜ投資家はそこまで恐れたのか。それを理解するには、従来のセキュリティツールが何をしていたかを知る必要がある。
従来ツールと何が違うか
従来のセキュリティツール——SAST(静的解析ツール)と呼ばれる——がやってきたことは、辞書との照合に近い。「こういう書き方のコードは危ない」というパターンを大量に登録しておき、コードがそのパターンに一致するかどうかを機械的に確認する。CodeQLをはじめ広く使われているツールも、基本的にはこの仕組みで動いている。
辞書に載っていないパターンは、素通りする。攻撃手法が新しければ見逃し、複数のファイルにまたがって初めて危険になるような問題は、そもそも照合できない。
推論でコードを読む
パターンマッチングにはもう一つ深刻な問題がある。誤検知——本当は問題ないのに「危ない」と警告を出してしまうこと——が膨大なのだ。複数のSASTツール評価研究では、アラートの7割から9割が実際には問題のない箇所だったと報告されており、NISTのソフトウェア品質評価プログラムでも同様の傾向が繰り返し確認されている。セキュリティ担当者は一日中、「オオカミが来た」と叫び続けるシステムの相手をしながら、本物の問題を探さなければならない。
Claude Securityが採用したのは、根本的に異なるアプローチだ。コードを辞書と照合するのではなく、「このデータはどこから来て、どこへ行くのか」という流れを追いながら、コード全体の意味を読む。複数のファイルにまたがるデータの動きも追跡でき、「文脈として初めて危険になる」構造も検出できる。Anthropicが開発に使ったのは最新モデルのClaude Opus 4.7——その推論能力を、コード読解に転用した形だ。
500件発見の実績
Anthropicは開発過程で、この能力を実際のコードにかけた。対象は、GhostScript(PDFを表示・変換する際に世界中のPCで動いているソフト)やOpenSC(企業が社員証やIDカードで使うシステムの基盤ソフト)など、何十年もの間、世界中の専門家がレビューし、既存ツールが何度もスキャンしてきた著名なオープンソースプロジェクト。そこから500件以上の高深刻度な脆弱性が新たに見つかった。
「数十年間、誰も気づかなかった」という事実が、業界を揺さぶった。腕利きの専門家が何年もかけて守ってきたコードに、AIが穴を見つける。それは単なる「便利なツールの登場」ではなく、「専門家がやってきた仕事の精度」そのものへの問いかけだった。
セキュリティ担当と開発者の分業が崩れる
ツールの仕組みが変わると、人の仕事も変わる。500件の脆弱性発見が示したのは技術の優位性だけではなく、「発見から修正」までの一連の作業をAI一つが担えるという現実だった。
分断の何が問題か
今まで企業のセキュリティ担当者——たとえばAさん——の仕事はこうだった。スキャンツールを走らせ、警告が出たコードを確認し、本当に危ないと判断したものを「バグチケット」として開発チームに送る。開発者のBさんはそのチケットを受け取り、自分の作業スケジュールの中でいつか対応する。「いつか」は早くて数日、多くは数週間後だ。
Bさんが修正を入れると、Aさんが確認する。「この修正で合っていますか」「この直し方だと別の箇所に影響が出ませんか」——そのやり取りが何往復も続く。問題が見つかってから修正が完了するまで、1か月以上かかることも珍しくない。
この分断の根本は情報の非対称性だ。Aさんは「ここが危ない」と分かっているが、どう直すかはBさんの領域。BさんはAさんの警告を受け取るが、なぜ危険なのか、どう攻撃されるのかを深く理解しないまま対応することになる。
Claude Securityはこの分断を起点から変える。AIが脆弱性を見つけると同時に修正案まで作る。Aさんがチケットを書く必要はない。BさんにはAIが用意した検証済みの修正案が届き、承認するだけでいい。Anthropicが公開したプレビュー参加企業の事例によれば、発見から修正完了までの時間が数週間から数十分単位に縮んだとされているが、参加企業の詳細や検証条件は現時点で開示されていない。
誤検知を減らす仕組み
ただし「AIが見つけた」というだけでは、従来のツールと同じ問題が残る。警告の大半が空振りなら、BさんはAIの通知を無視するようになる。
Claude Securityがこの問題に対処するのが、自己検証の仕組みだ。脆弱性を見つけたAIが、今度は攻撃者の立場に立って「本当にこの手順で攻撃できるか」を自分でシミュレートする。攻撃が実際に再現できたものだけを報告する——この自己検証が、実際には問題のない箇所への誤アラートを排除する。
Bさんのもとへ届く修正案には、「なぜ危険か」「どう攻撃されるか」「この修正を入れると他にどんな影響が出るか」の説明が添えられている。Bさんは文脈を理解した上で、承認を判断できる。
Aさんの仕事はチケットを書くことから、AIの修正案を精査することに変わる。開発者のBさんは、根拠不明の警告に振り回されるのではなく、検証済みの修正を受け取る。
この変化はすでに現実になっている。
パブリックベータの提供機能
この変化はすでに、使える状態で始まっている。2026年4月30日、Claude Securityはパブリックベータに移行した。プレビュー段階から一般公開へ——企業が実際の業務環境で試せる段階に入った。
Claude EnterpriseプランのユーザーであればClaude Security専用のページからリポジトリ——コードの保管場所——を選ぶだけで、追加費用なしでスキャンが始まる。普段使われているプログラミング言語のほぼすべてに対応しており、GitHubなど一般的なコード管理ツールとも連携できる。コードを更新するたびに自動で検査が走る仕組みにも対応している。
新機能「スケジュールスキャン」は、リポジトリをバックグラウンドで定期的に全件チェックし続ける。「気づいたときだけ走らせる」ではなく、常に監視し続けるという形だ。問題が見つかれば、その場で修正パッチを適用できる。
データの扱いについては、スキャンに使ったコードはAnthropicのモデル学習には使用されないとAnthropicは説明している。ただし、スキャン対象リポジトリの規模制限やサービス品質の保証水準の詳細は、パブリックベータの段階では確定値として公表されていない。数か月以内に、個人向けプランにも機能が開放される予定だ。
大手コンサルティング会社が、顧客企業へのClaude Security導入支援をすでに始めている(社名は現時点で未公表)。一方、「Anthropicショック」で株価が急落したセキュリティ大手のCrowdStrikeとPalo Alto Networksは、Anthropicと正面から競合する道を選ばなかった。両社ともClaudeのモデルを自社製品に組み込む方向に転じている。「Anthropicショック」の当事者たちが、そのAIを自分たちの武器として使い始めた——市場の評決は、すでに出つつある。
