[ニュース解説]2025年、AI生成「スロップ」が急増——NPRが警鐘を鳴らす現実と対策

目次

はじめに

 NPR(National Public Radio)が2025年12月24日、2025年におけるAI生成コンテンツ、いわゆる「AIスロップ」の急増について報じました。本稿では、政治的プロパガンダから一見無害な動物動画まで、3つの具体例を通じて、AI生成動画が現実とフィクションの境界をどのように曖昧にしているか、そして私たちがどう対応すべきかを解説します。

参考記事

要点

  • 2025年はAI生成動画、いわゆる「AIスロップ」がソーシャルメディア上で爆発的に増加した
  • トランプ政権はAI生成のミーム動画を政治的メッセージングの手段として積極的に活用している
  • OpenAIのSoraなど新しいツールにより、実在の人物を偽の状況に登場させる動画の作成が容易になった
  • 一見無害な動物動画などもAI生成が増加し、現実との境界が曖昧になっている
  • 研究者は、AI動画に騙されることは避けられないとしつつも、完全に冷笑的にならず現実にしがみつくことの重要性を指摘している

詳細解説

政治的プロパガンダとしてのAI動画

 NPRによれば、2025年10月、トランプ大統領は自身が戦闘機を操縦して抗議者の上に排泄物を投下するAI生成動画をSNSに投稿しました。戦闘機には「King Trump」の文字があり、大統領は王冠を被っています。この動画はKenny Logginsの「Danger Zone」を使用していますが、Loggins本人は使用許可を与えておらず、削除を要請したものの、動画は投稿され続けています。

 この事例が示すのは、明らかに偽物と分かる動画であっても、政治的メッセージングの手段として効果的に機能する可能性です。NPRの取材に対し、ホワイトハウスは「ミームは続く」と述べており、この手法が意図的な戦略であることが窺えます。2024年の大統領選挙キャンペーン中からトランプ陣営はAI生成コンテンツを多用しており、2025年に入ってからは政権全体がこの戦略を採用しています。ホワイトハウスや国土安全保障省のソーシャルメディアアカウントが、AI生成と思われるミーム動画や画像を頻繁に投稿しているとのことです。

 来年の中間選挙を控え、このようなAI生成の政治コンテンツがさらに増加すると考えられます。従来のフェイクニュースや誤情報とは異なり、これらの動画は必ずしも事実を装っているわけではありません。むしろ、誇張や風刺の形を取りながら、特定の政治的メッセージを視覚的に強く印象付ける手法と言えます。

実在人物の偽動画作成の容易化

 2025年秋、OpenAIはSoraという動画生成アプリを公開しました。Soraの特徴的な機能の一つは、本人の許可を得て他者の顔と声を動画に組み込める点です。OpenAIのCEOであるSam Altmanは自身の肖像使用を許可し、その結果、OpenAI社員がAltmanがTargetでコンピュータチップを万引きする監視カメラ風の動画を作成しました。

 動画内でAltman(のAI生成版)は「Soraの推論のために本当に必要なんだ。この動画はとても良い」と発言します。これはAIの膨大な計算需要についての内輪ジョークですが、技術的に重要な意味を持ちます。実在の企業CEOが偽の犯罪行為を行っている動画を、かなりリアルに作成できることを示しているからです。

 Soraはこれ以外にも、投票箱に不正に票を詰める偽動画や、偽のローカルニュースインタビューなどを生成できることが報告されています。NPRの記者は、Soraが「スロップ作成のハードルをゼロにした」と表現しています。選挙年を控える中、このような技術の民主化は深刻な懸念材料と考えられます。

 従来、ディープフェイク動画の作成には専門的な技術が必要でしたが、Soraのようなツールにより、一般ユーザーでも高品質な偽動画を作成できるようになりました。この技術的なハードルの低下が、今後の情報環境にどのような影響を与えるかは、重要な検討課題だと思います。

無害に見えるAIスロップの蔓延

 3つ目の事例は、2025年夏にTikTokに投稿された動画です。夜間、裏庭のトランポリンで複数のウサギが跳ねている様子を捉えたRingカメラの映像のように見えます。この動画はTikTokで2億回以上再生されましたが、実際にはAI生成でした。

 投稿当初、動画自体にはAI生成であることを示す透かしがなく、多くの視聴者が本物と信じました。TikTokは後にAIラベルを追加しましたが、コメント欄を見ると、投稿時点では大多数の人が騙されていたことが分かります。

 この事例は、政治的な動画とは異なる意味で問題を提起します。可愛い動物の動画は、インターネット上で常に人気のあるエンゲージメントベイト(関心を引くコンテンツ)です。そのような「無害な」コンテンツまでAI生成が広がることで、ソーシャルメディア上で何が本物で何が偽物かを判断することが、ますます困難になっています。

 NPRの記者は、このようなAIスロップが自身のフィードに溢れており、明確にAIとラベル付けされているかどうかに関わらず、現実との境界が曖昧になっていると指摘しています。エンターテインメントとしてのAI生成コンテンツと、事実を伝えるべきコンテンツの区別が、ユーザーにとって難しくなっている状況です。

AI動画の見分け方と向き合い方

 規制やラベリングが確立されるまで、私たちは遅かれ早かれAI動画に騙されると、NPRの取材を受けた研究者は述べています。しかし、いくつかの注意点があります。

 まず、AI動画は生成に多くの計算リソースを必要とするため、非常に短い傾向があります。また、少し考えれば非現実的だと分かるシナリオを含むことが多いとのことです。例えば、複数のウサギが同時にトランポリンで跳ねるような状況は、現実には起こりにくいと考えられます。逆画像検索や、その出来事に関するニュース記事の検索も有効な手段です。

 興味深いのは、研究者が人々が冷笑的になりすぎることを懸念している点です。すべてが偽物だと仮定してしまうと、実際の悪質な行為者の責任を問うことが難しくなります。「それは偽物だ、実際にはやっていない」という言い訳が通用してしまうためです。

 NPRの記者は、リキュールストアで酔っぱらったアライグマの動画を例に挙げています。当初はAI生成だと思ったものの、調査の結果、実際に起こった出来事だと確認できたとのことです。このような検証作業を通じて、現実にしがみつき続けることの重要性を強調しています。

 AIによる画像生成技術の発展により、可愛い動物動画さえもアライグマに取って代わられる可能性がある、というユーモアを交えた結びで、記者は技術の進化と現実の保護のバランスについて示唆しています。

まとめ

 2025年、AI生成動画「スロップ」は政治的プロパガンダから無害な動物動画まで、あらゆる形で急増しました。完全に騙されることを避けるのは難しいかもしれませんが、NPRが報じるように、冷笑的にならず、短い動画や非現実的なシナリオに注意を払い、検証を怠らないことが重要だと思います。

この記事が気に入ったら
フォローしてね!

  • URLをコピーしました!
  • URLをコピーしました!
目次