はじめに
近年、ChatGPTに代表される大規模言語モデル(LLM)が身近なものになりましたが、その影響はサイバーセキュリティの分野にも及んでいます。攻撃者(ハッカー)はより巧妙な手口のために、そして防御側(セキュリティ専門家)はより強固な守りのために、AIを活用し始めています。本稿では、この「AI軍拡競争」とも言える攻防の最前線で何が起きているのか、その具体的な事例と今後の展望を掘り下げていきます。
参考記事
- タイトル: Criminals, good guys and foreign spies: Hackers everywhere are using AI now
- 著者: Kevin Collier
- 発行元: NBC News
- 発行日: 2025年8月17日
- URL: https://www.nbcnews.com/tech/security/era-ai-hacking-arrived-rcna224282
要点
- サイバーセキュリティの世界では、攻撃者と防御者の双方がAI、特に大規模言語モデル(LLM)の活用を開始している。
- 攻撃者は、フィッシングメールの高度化や、マルウェアによる機密情報の自動収集などにAIを利用している。
- 防御者は、AIを用いてソフトウェアの脆弱性を人間よりも迅速に発見し、修正する取り組みを進めている。
- 現状、AIは熟練ハッカーの作業を効率化するツールとして機能しており、初心者を即座にエキスパートにするものではない。
- 将来的には、AIを組み込んだ無料の自動ハッキングツールの普及や、自律的に行動する「エージェントAI」が新たな脅威となる可能性が指摘されている。
詳細解説
前提知識:大規模言語モデル(LLM)とは?
本稿を読み進める上で、まず「大規模言語モデル(LLM: Large Language Models)」という言葉を理解しておくことが重要です。これは、ChatGPTのように、膨大な量のテキストデータから言語のパターンを学習し、人間が書いたような自然な文章を生成したり、文章を要約したり、さらにはコンピューターのプログラムコードを生成したりできるAI技術のことです。この「言語を操り、コードを生成する能力」が、サイバーセキュリティの攻防に大きな影響を与え始めています。
攻撃におけるAI活用事例:より巧妙に、より自動的に
参考記事によると、AIを悪用したサイバー攻撃の具体的な事例がすでに確認されています。
2025年の夏、ロシアのハッカー集団がウクライナに対して送ったフィッシングメールには、AIプログラムが添付されていました。もし受信者がこのファイルを開いてしまうと、AIが自動的にコンピューター内をスキャンし、機密情報と判断したファイルを自動で検索してモスクワのサーバーに送信するというものでした。これは、国家が関与するハッキング活動において、LLMが組み込まれた悪意のあるコード(マルウェア)が使われたことが確認された初の事例です。
また、より身近な脅威として、フィッシングメールの文章作成にもAIが利用されています。これまでのフィッシングメールは、不自然な日本語が使われていることが多く、見破ることは比較的容易でした。しかし、LLMを使えば、ターゲットの文化や背景に合わせて、極めて自然で説得力のある文章を簡単に生成できてしまいます。これにより、人々を騙して悪意のあるリンクをクリックさせたり、個人情報を入力させたりする成功率が高まっています。
防御におけるAI活用事例:脆弱性発見の高速化
一方で、防御側もAIの活用を積極的に進めています。
Googleのセキュリティチームは、自社開発のLLMである「Gemini」を利用して、ソフトウェアに潜む脆弱性(セキュリティ上の欠陥)を発見するプロジェクトを進めています。記事によれば、この取り組みによって、これまで人間が見落としていた重要な脆弱性が少なくとも20件発見され、修正につながったと報告されています。AIは新しい発見をするというより、既知のパターンに基づいて膨大な量のコードを高速でチェックすることで、人間の専門家を支援し、作業を大幅に効率化しています。
さらに、AIによるハッキングを専門とするスタートアップ企業も登場しています。「Xbow」という企業は、AIを使って脆弱性を発見し、ハッカーの腕前を競う世界的なプラットフォーム「HackerOne」のリーダーボードで、AIとして初めてトップに立つという成果を上げました。これは、AIによる脆弱性発見能力が人間と肩を並べるレベルに達しつつあることを示しています。
現状の評価:攻撃と防御、どちらが有利か?
では、このAI軍拡競争は、攻撃側と防御側のどちらに有利に働くのでしょうか。
記事で紹介されているホワイトハウス国家安全保障会議の高官、アレクセイ・ブラゼル氏は、「AIは攻撃よりも防御にとって有利に働くと強く信じている」と述べています。その理由として、AIは、特にセキュリティ専門チームを持たない中小企業が見落としがちな、比較的小さな欠陥を低コストで効率的に発見できる点を挙げています。これにより、これまで一部の専門家しか持てなかった高度なセキュリティ診断能力が、より多くの組織で利用可能になる(記事内では「脆弱性情報へのアクセスを民主化する」と表現)という見方です。
未来への懸念:新たな脅威の出現
しかし、楽観はできません。専門家たちは、将来的にAIがより深刻な脅威を生み出す可能性を指摘しています。
一つは、AIを組み込んだ無料の自動ハッキングツールの登場です。現在も、システムの脆弱性をテストするためのツールは存在しますが、これに高度なLLMが組み込まれ、誰でも簡単に入手できるようになった場合、セキュリティ対策が不十分な中小企業などを狙った攻撃が爆発的に増加する危険性があります。
もう一つは、「エージェントAI」の台頭です。これは、単に文章を生成するだけでなく、与えられた目標に対して、メールの作成・送信やプログラムの実行など、一連のタスクを自律的にこなすAIのことです。このようなAIが組織内で導入された場合、悪意のある人物によって乗っ取られたり、誤った指示を与えられたりすることで、内部から機密情報を盗み出したり、システムを破壊したりする「新たなインサイダー脅威」になる可能性があると警告されています。
まとめ
本稿では、NBC Newsの記事を基に、サイバーセキュリティの分野におけるAI活用の現状と未来について解説しました。攻撃者と防御者の双方がAIを駆使し始める「軍拡競争」は、まだ始まったばかりです。
現状では、AIは熟練した専門家の能力を向上させるツールとして機能しており、防御側に有利に働くという見方もあります。しかし、技術の進化は速く、AIを搭載した自動攻撃ツールの普及や、自律的に行動するエージェントAIの登場など、新たな脅威がすぐそこまで迫っています。
私たち企業や個人は、AIがサイバーセキュリティの常識を大きく変えつつあることを認識し、常に最新の情報を収集し、自らのセキュリティ対策を見直していくことが、これまで以上に重要になっています。