はじめに
本稿では、AI(人工知能)技術を悪用した新たなサイバー攻撃の脅威について2025年7月にBBC、AP通信などが報じた「何者かがAIで生成した音声を用いてマルコ・ルビオ米国務長官になりすまし、国内外の政府高官らと接触を試みた事件」を取り上げます。この事件は、AIがもたらす利便性の裏に潜む危険性を浮き彫りにしています。
引用元記事
- 発行元: BBC News
- タイトル: Imposter used AI to pose as Marco Rubio and contact foreign ministers
- 発行日: 2025年7月8日
- URL: https://www.bbc.com/news/articles/crrqkyyjewno
- 発行元: AP通信 (Associated Press)
- タイトル: Impostor uses AI to impersonate Rubio and contact foreign and US officials
- 発行日: 2025年7月9日
- URL: https://apnews.com/article/rubio-artificial-intelligence-impersonation-1b3cc78464404b54e63f4eba9dd4f5a9
- 発行元: CNN
- タイトル: Someone using AI to impersonate Marco Rubio contacted at least five people including foreign ministers, cable says
- 発行日: 2025年7月8日
- URL: https://edition.cnn.com/2025/07/08/politics/marco-rubio-artificial-intelligence-impersonation
- 発行元: CBS News
- タイトル: “Unknown actor” using AI to impersonate Rubio, State Department cable shows
- 発行日: 2025年7月8日
- URL: https://www.cbsnews.com/news/marco-rubio-ai-impersonator-state-department-cable/
要点
- 正体不明の攻撃者が、AI技術を用いてマルコ・ルビオ米国務長官の声を忠実に再現した。
- 攻撃者はメッセージアプリ「Signal」を使い、AIが生成した音声メッセージで、3人の外務大臣を含む少なくとも5人の政府高官に接触を試みた。
- 目的は、標的を騙して機密情報やアカウントへのアクセス権を不正に得ることであったと見られる。
- このなりすましは未遂に終わったが、米国務省は事件を公式に認め、全在外公館に警告を発する事態となった。
- 本件は、「ディープフェイク」技術がサイバー攻撃や情報戦の新たな手口として、現実の脅威となっていることを示す象徴的な事例である。
詳細解説
事件の概要:何が起こったのか?
2025年6月中旬、正体不明の人物(米国務省の公電では「unknown actor」と表現)が、メッセージアプリ「Signal」上に偽のアカウントを作成しました。このアカウントは「marco.rubio@state.gov」という、あたかも公式であるかのような表示名を使い、マルコ・ルビオ国務長官本人になりすましました。
攻撃者はこのアカウントから、3人の他国の外務大臣、1人の米国の州知事、そして1人の米国連邦議会議員という、極めて重要な立場にある人物たちに接触を試みました。その際、単なるテキストメッセージだけでなく、AIによって生成されたルビオ氏本人の声そっくりのボイスメッセージを送信するという、非常に巧妙な手口が用いられました。
幸いにも、AP通信の報道によれば、この試みは「あまり洗練されていなかった」ため成功には至らず、機密情報が漏洩するなどの直接的な被害は確認されていません。しかし、米国務省はこの事態を深刻に受け止め、7月3日にすべての外交・領事公館へ警告の公電を送付し、サイバーセキュリティ対策の強化を進めていることを明らかにしました。
脅威の中核「AI音声生成(ディープフェイクボイス)」
今回の事件で最も注目すべきは、AIによる音声生成技術、いわゆる「ディープフェイクボイス」や「ボイスクローニング」が悪用された点です。
これは、AI(特に深層学習モデル)に特定の人物の音声データを学習させることで、その人物の声色、話し方の癖、イントネーションなどを忠実に模倣し、全く新しい内容の文章を本人の声で自由に話させることができる技術です。過去には大量の音声データが必要でしたが、技術の進歩により、現在では比較的短い音声サンプルからでも高品質な偽音声を生成可能になっています。
この技術の恐ろしさは、これまで「本人の声」という、ある種の証明として機能してきたものの信頼性を根底から揺るがす点にあります。電話やボイスメッセージ越しの声が本人であると信じてしまい、偽の指示に従ったり、機密情報を話してしまったりするリスクが現実のものとなったのです。
これは氷山の一角か?
実は、AIを利用した要人のなりすましは、これが初めてではありません。
- ジョー・バイデン前大統領の偽ロボコール事件: 2024年の米国大統領予備選挙の際には、バイデン氏の声を真似たAIが有権者に電話をかけ、投票に行かないよう促すという事件が発生しました。
- トランプ大統領首席補佐官のなりすまし: 2025年5月には、当時の大統領首席補佐官であったスージー・ワイルズ氏になりすました人物が、彼女の連絡先リストにある要人たちに接触を試みる事件も報じられています。
これらの事件は、AIによるなりすましが、選挙妨害や情報窃取を目的としたサイバー攻撃の常套手段になりつつあることを示唆しています。
さらに、CNNなどの報道は、今回の事件とは別に、ロシアの対外情報庁(SVR)と関連するとされるハッカー集団「APT29」が、国務省職員になりすまして東欧の活動家やジャーナリストを標的としたスピアフィッシング(特定の標的に対して行われる精密な詐欺メール攻撃)を行っていたことにも触れています。国家が背後にいると見られる高度なサイバー攻撃が、世界中で活発化しているのです。
専門家の見解:「生成と検出の軍拡競争」
AP通信の記事では、ニューヨーク州立大学バッファロー校のシウェイ・リュウ教授が、この状況を「生成側(偽物を作る側)と検出側(偽物を見破る側)の軍拡競争」と表現しています。数年前のディープフェイクには、不自然な声や映像の乱れといった欠陥が見られましたが、技術の向上により、今や人間が簡単に見分けることは非常に困難になっています。
この競争において、現在は残念ながら「生成側が優位に立っている」と専門家は指摘しており、私たち一人ひとりが「聞こえる声、見える映像が本物とは限らない」という前提を持つことが重要になっています。
まとめ
本稿で解説したマルコ・ルビオ国務長官のなりすまし事件は、AI技術がもたらす負の側面を象徴する出来事です。攻撃者はAIで生成した声を使い、安全と信じられていたメッセージアプリを通じて政府の最高レベルの要人を標的にしました。幸い未遂に終わりましたが、これはAIディープフェイクが、もはやSFの世界の話ではなく、現実の政治や外交、安全保障を揺るがす脅威となったことを明確に示しています。
技術による検出システムの開発が進む一方で、私たち自身も、安易に情報を信じ込まず、発信元の確認を徹底するなど、デジタル社会におけるリテラシーを高めていく必要があります。AIという強力なツールとどう向き合っていくのか、社会全体で考えていくべき課題と言えるでしょう。