サイバーセキュリティの分野において、AIの活用は攻撃者と防御者の両方で急速に進んでいる。特に、昨今のAIエージェントや高度なマルウェアの台頭により、従来のシグネチャベースの防御では追いつかないケースが増加している。そうした中、OpenAIは2026年5月11日、プロフェッショナル向けに「制限なし」のセキュリティ特化モデルを発表した。このモデルは、従来のAIモデルとは異なり、倫理的なガードレールを意図的に緩和し、攻撃者の視点でシステムの脆弱性を探索・悪用する能力を持つ。これにより、企業や政府機関は、実際の攻撃者がどのような手法で侵入を試みるかを事前に把握し、防御策を講じることが可能となる。
OpenAIのこの新モデルは、同社がこれまで培ってきたCodexやGPTシリーズの技術をベースに、セキュリティ専門家向けに特化させたものだ。具体的には、ペネトレーションテストや脆弱性診断のプロセスを自動化し、発見した脆弱性に対して修正コードを生成する機能まで内包している。例えば、WebアプリケーションのSQLインジェクションやクロスサイトスクリプティング(XSS)といった一般的な脆弱性だけでなく、ゼロデイ脆弱性と思われる未知のパターンも、過去の攻撃データやCVE(共通脆弱性識別子)情報を学習することで発見可能だ。また、このモデルは、発見した脆弱性を悪用するPoC(概念実証)コードを生成することも許可されており、セキュリティチームは実際の攻撃をシミュレートできる。
注目すべきは、このモデルが「制限なし」で動作する点だ。通常、OpenAIのモデルには安全性や倫理に関する制約が設けられており、ハッキングやマルウェア作成を助長するような出力はブロックされる。しかし、本セキュリティ特化モデルでは、許可された環境下での攻撃行動が明確に認められている。これにより、攻撃者のスピードを上回る防御が可能になるとOpenAIは主張する。同社のCEOであるSam Altman氏は、公式ブログで「防御側が攻撃者と同じ速度で動けるようにするためには、AIに制限を設けず、真の脆弱性を暴かせることが不可欠だ」と述べている。
このモデルの提供形態は、API経由での利用が主であり、Azure OpenAI Serviceを通じても提供される。ただし、利用には厳格な審査が必要で、一定のセキュリティ資格や実績を持つ組織のみがアクセスできる。また、不正利用を防ぐために、モデルの出力は監査ログとして保存され、AIが生成した攻撃コードが実際の環境で悪用された場合には、利用者の責任が問われる仕組みだ。
実際の活用事例としては、すでに複数の大手セキュリティ企業がテストを開始している。例えば、Palo Alto Networksは、自社のファイアウォールルールの最適化にこのモデルを活用し、従来手作業で数週間かかっていた設定の検証を数時間に短縮したという。また、CrowdStrikeは、エンドポイントの異常検知ルールを動的に書き換えるためにこのモデルを使用し、未知のマルウェアに対する防御率を向上させている。
ただし、このモデルには大きなリスクも伴う。AIが生成する攻撃コードが、誤って本番環境に適用されたり、悪意ある内部関係者によって流出した場合、甚大な被害が発生する可能性がある。OpenAIは、モデルの出力にはウォーターマークを埋め込み、追跡可能にすることで対策を講じているが、完全な防衛策とは言い難い。業界からは「AIによる自律攻撃の危険性を高める」との懸念も上がっている。それでも、攻撃者も既にAIを活用している現状を鑑みれば、防御側がAIの力を最大限に活用する必要性は明白だ。
総じて、OpenAIのこのセキュリティ特化モデルは、サイバー戦争の新たな時代の幕開けを告げるものと言える。AIによる脆弱性の直接検出と自動修正は、今後標準的なセキュリティプラクティスになる可能性が高い。読者であるIT・AI業界のプロフェッショナルにとって、この動きは極めて重要であり、自社のセキュリティ態勢を見直すきっかけとなるはずだ。

