はじめに
ソーシャルメディアを見ていると、奇妙でどこか非現実的なショート動画が流れてくることが増えていないでしょうか。実はその多くが、生成AIによって作られたコンテンツかもしれません。本稿では、現在インターネット上で急増している「AI slop(エーアイ・スロップ)」と呼ばれる動画の実態と、その背景にある課題について詳しく解説します。
参考記事
- タイトル: ‘AI slop’ videos may be annoying, but they’re racking up views — and ad money
- 発行元: NPR (National Public Radio)
- 発行日: 2025年8月28日
- URL: https://www.npr.org/2025/08/28/nx-s1-5493485/ai-slop-videos-youtube-tiktok
要点
- 生成AIを用いて短時間で大量に作られる、低品質または意味の希薄なショート動画「AI slop」がSNS上で急増している。
- これらの動画は、SNSのアルゴリズムに最適化され、視聴者のエンゲージメント(反応)を誘発することで、多額の広告収入を得ることを主な目的とする。
- 実際に、フィリピンの学生が制作した動画は数百万回再生され、1ヶ月で9,000ドル(約130万円以上)もの収益を上げた事例がある。
- 一方で、こうした動画の氾濫は、AIを使わないクリエイターのコンテンツが埋もれてしまう「発見可能性の崩壊」や、偽情報の拡散といった深刻な問題を引き起こしている。
- プラットフォーム側はAIコンテンツへのラベリングなどの対策を始めているが、自社でもAI開発に投資しているため、規制にはジレンマを抱えているのが現状である。
詳細解説
「AI slop」とは何か? 具体例から見るその実態
「AI slop」とは、直訳すると「AIの汚物」や「AIの残りかす」といった意味合いを持つ言葉で、生成AI技術を使って作られた、しばしば反復的で意味の薄い、低品質なコンテンツを指す批判的な用語です。
NPRの記事では、その典型例として「FUNTASTIC YT」というYouTubeチャンネルが紹介されています。このチャンネルでは、子猫が主人公の短いアニメーションが多数投稿されています。例えば、ある動画では子猫が虹色のスライムで満たされたプールを見て「パパ、このスライムのプールで泳いでもいい?」と尋ねます。すると、すでにプールに首まで浸かっている筋骨隆々の父親猫が「だめだ息子よ、動けないんだ。助けてくれ」と答える、というシュールな内容で動画は終わります。
こうした動画は、単純なアニメーション、合成音声、そして脈絡のないストーリーが特徴です。しかし、その奇妙さがかえって視聴者の笑いや興味を誘い、この動画は200万回以上も再生されています。制作者は、ChatGPTでキャラクターを、KlingAI(動画生成AI)で動画を生成し、1本あたり1〜2時間という短時間で制作しているといいます。
なぜ「AI slop」は大量に作られるのか?
最大の動機は広告収入です。YouTubeなどのプラットフォームでは、動画の再生回数や表示される広告の数に応じて、制作者に収益が支払われます。
前述の「FUNTASTIC YT」を運営するフィリピンの21歳の大学生、マーク・ローレンス・I・ガリラオ氏は、2025年5月の1ヶ月だけで9,000ドル(約130万円以上)の収益を上げたと語っています。これは、彼が大学卒業後に得られるであろう初任給の年収を超える金額です。
このように、専門的なスキルがなくても、AIツールを使えば短時間で「バズる」可能性のある動画を量産でき、大きな収益を得られるチャンスがあるため、多くの人々が「AI slop」の制作に参入しているのです。彼らにとって、動画は創造的な表現のためではなく、SNSのアルゴリズム(どの動画をユーザーに表示するかを決める仕組み)を攻略し、エンゲージメントを獲得するための手段となっています。
「AI slop」がもたらす深刻な問題点
一見すると無害に見えるこれらの動画ですが、専門家はその急増に警鐘を鳴らしています。
- コンテンツのスパム化と発見可能性の崩壊
批評家たちは、「AI slop」を「エンゲージメントのためだけに存在する、創造性のないコンテンツ」であり、「AIがスパムを強化している」と指摘しています。AIによって大量生産された動画がフィードを埋め尽くすことで、時間と労力をかけて質の高い作品を作るクリエイターたちのコンテンツがユーザーの目に触れにくくなる「発見可能性の崩壊」が懸念されています。 - 偽情報や誤情報の拡散
より深刻なのは、この技術が悪用されるケースです。記事では、2024年7月にテキサス州で発生した洪水の際に、有名人が人々を救助しているかのような偽の動画がAIによって作られ、拡散された事例が挙げられています。このように、AIは説得力のある偽情報を簡単に作り出せるため、社会的な混乱を招くリスクをはらんでいます。
巨大プラットフォームの複雑な対応
TikTokやInstagram(Meta社)は、AIによって生成されたコンテンツにラベルを表示するなどの対策を始めています。YouTubeも、これまで禁止していた「反復的なコンテンツ」による収益化のポリシーを、より広範な「非 auténtico(本物でない)」コンテンツへと拡大しました。
しかし、この変更が具体的にどのようなAIコンテンツを対象とするのかは不明確です。コロラド大学のケイシー・フィースラー教授は、「この変更がAI生成コンテンツを明確にターゲットにしていることを示すものはない」と指摘しています。
さらに、YouTube自身も偽の背景を作成する機能など、クリエイター向けにAIツールを提供し、その利用を推奨しています。巨大テック企業はAI技術の開発に多額の投資を行っており、AIコンテンツを厳しく規制することに消極的であるという見方もあります。彼らは、今は厄介な「slop」であっても、将来的にはAIが生成するコンテンツがインターネットの主流になると考えているのかもしれません。
まとめ
本稿では、NPRの記事を基に、生成AIによって作られる「AI slop」動画の急増という現象について解説しました。この問題は、単に「意味のない動画が増えて迷惑だ」という話に留まりません。AI技術がもたらす新たな収益化の機会、それによって引き起こされるクリエイターエコシステムの歪み、そして偽情報のリスクという、光と闇の側面を浮き彫りにしています。
制作者は批判的なコメントさえも「エンゲージメント」として歓迎し、プラットフォームはAIへの投資とコンテンツの健全性の間でジレンマを抱えています。視聴者も、日々目にするコンテンツがどのように作られているのかを意識し、批判的な視点を持つことがますます重要になっていくと考えられます。