[ニュース解説]BBCがAI企業を訴訟: コンテンツ無断使用で法的措置へ、著作権の最前線

目次

はじめに

 本稿では、英BBCが、AI(人工知能)企業であるPerplexityに対し、著作権侵害を理由に法的措置を検討していることについて、BBC Newsの「BBC threatens AI firm with legal action over unauthorised content use」という記事をもとに解説していきます。

引用元記事

あわせて読みたい
[ニュース解説]AIは著作権の“底なし沼”か?ディズニーが画像生成AI「Midjourney」を提訴 はじめに  本稿では、エンターテイメント業界の巨人であるディズニーとユニバーサルが、人気の画像生成AI「Midjourney」を著作権侵害で提訴したというニュースについて...
あわせて読みたい
[ニュース解説]生成AIの学習データは誰のもの? Getty Images vs Stability AI、著作権の未来を占う裁判 はじめに  本稿では、AP通信が報じた「Getty Images and Stability AI face off in British copyright trial that will test AI industry」という記事を基に、現在世界...
あわせて読みたい
[ニュース解説]英政府AI戦略に4度目の否決:著作権問題、議会の攻防最前線 はじめに  本稿では、英国BBC Newsが報じた「Government AI copyright plan suffers fourth House of Lords defeat」という記事をもとに、現在英国で大きな議論を呼ん...

要点

  • 英国の公共放送BBCは、米国のAI企業Perplexityが自社のニュースコンテンツを無断で複製・使用しているとして、法的措置を検討している。
  • BBCの主張の核心は、著作権侵害と利用規約違反であり、コンテンツの使用停止、保有データの削除、および金銭的補償を要求している。
  • AIによる不正確な要約が、公共放送としての中立性や正確性といったBBCの信頼性や評判を損なうことも問題視されている。
  • この問題の背景には、AI開発における「ウェブスクレイピング」というデータ収集手法と、それを制御しようとするウェブサイト側の「robots.txt」という仕組みの対立がある。
  • Perplexity側は、BBCの主張を否定し、同社のクローラー(情報収集プログラム)はrobots.txtを尊重していると反論している。

詳細解説

事件の概要:何が起きているのか?

 今回の問題の中心は、英国の巨大メディアであるBBCが、AIチャットサービスを提供する米国のスタートアップ企業Perplexityに対して、「我々のコンテンツを無断で使うな」と警告している、というものです。

 BBCの主張は非常に深刻です。PerplexityのAIチャットボットが、BBCの記事を許可なく、しかも「逐語的(verbatim)」、つまりほぼ原文のまま複製して回答として生成していると指摘しています。これは英国の法律における著作権侵害であり、BBCが定めたウェブサイトの利用規約にも違反すると断じています。

 その上で、BBCはPerplexityに対し、以下の3点を要求する書簡を送付しました。

  1. BBCコンテンツの即時使用停止
  2. これまでに収集したBBCコンテンツの全削除
  3. 過去の使用に対する金銭的補償

 世界有数のニュース機関であるBBCが、AI企業に対してこれほど強硬な姿勢を取るのは初めてのことであり、大きな注目を集めています。

なぜBBCは怒っているのか?- 著作権と「信頼」の問題

 BBCがここまで強く反発するのには、大きく分けて2つの理由があります。

 一つは、当然ながら「著作権」です。ニュース記事は、記者の取材や編集など、多大なコストと労力をかけて生み出される「著作物」です。それを無断で利用され、自社のビジネス(この場合はPerplexityのAIサービス)に使われることは、コンテンツ制作者の権利を著しく侵害する行為にほかなりません。

 そしてもう一つが、公共放送としての「信頼性の毀損」です。BBCが今年初めに行った調査では、Perplexityを含むいくつかのAIチャットボットが、BBCの記事を不正確に要約するケースが見つかったと報告されています。AIが誤った、あるいは偏った内容を「BBCの記事によると」という形で提示してしまえば、視聴者や読者は誤解し、結果的にBBCが長年かけて築き上げてきた正確性や公平性への信頼が揺らぎかねません。これは、受信料によって支えられる公共放送としては看過できない事態です。

技術的な背景:「ウェブスクレイピング」と「robots.txt」の対立

 この問題の根底には、AI開発特有の技術的な課題が存在します。

 ウェブスクレイピングとは、インターネット上のウェブサイトから、プログラムを使って自動的に大量の情報を収集する技術のことです。生成AIが人間のように自然な文章を作ったり、質問に答えたりできるのは、このウェブスクレイピングによって集められた膨大なテキストデータを「学習」しているからです。

 一方、ウェブサイト側にも、無制限な情報収集を防ぐための仕組みがあります。それが「robots.txt」というファイルです。これは、ウェブサイトの管理者がサーバー上に設置するテキストファイルで、「このページのデータは収集しないでください」という意思表示を、ウェブスクレイピングを行うクローラー(収集プログラム)に対して伝える役割を持ちます。いわば、ウェブサイトの玄関に置かれた「関係者以外立ち入り禁止」の立て札のようなものです。

 今回の対立の核心はここにあります。BBCは「我々はrobots.txtを設置して、Perplexityのクローラーによるアクセスを禁止している。にもかかわらず、彼らはそれを無視してデータを不正に収集している」と主張しています。

 しかし、このrobots.txtには法的な強制力はなく、あくまでクローラー側の「良心」に委ねられる紳士協定に過ぎません。PerplexityのCEOは、過去のインタビューでrobots.txtを無視しているとの非難を否定しており、両者の主張は真っ向から対立しています。

Perplexityの言い分と「回答エンジン」というスタンス

 対するPerplexityは、自社のサービスをGoogleのような「検索エンジン」ではなく、「回答エンジン(Answer Engine)」と位置付けています。これは、単にウェブサイトのリンクを提示するのではなく、ウェブを検索して信頼できる情報源を見つけ、それらを統合・要約して、直接的な「回答」を生成することを目的としています。

 また、Perplexityは「我々はAIの基盤モデルを自社で構築しているわけではないため、ウェブサイトのコンテンツをAIモデルの事前学習のために利用しているわけではない」とも主張しています。これは、AIの脳みそを作るための「学習データ」としての利用と、ユーザーの質問に応じてリアルタイムで検索・要約して提示するための利用とを区別し、後者は著作権侵害には当たらない、という論理を展開しようとしている可能性があります。

メディア業界全体の危機感

 この問題は、単にBBCとPerplexityの二社間の争いにとどまりません。英国の300以上のメディアブランドが加盟する専門出版社協会(PPA)は、このニュースを受けて「AIプラットフォームが英国の著作権法を遵守していないことに深く懸念している」との声明を発表しました。

 AI企業による無許可・無報酬のウェブスクレイピングは、コンテンツ制作に投資する出版業界全体のビジネスモデルを脅かすものだと、多くのメディアが危機感を募らせています。

まとめ

 本稿で解説したBBCとPerplexityの対立は、AIという新しい技術が社会に浸透する過程で生じる、典型的な摩擦の一つと言えるでしょう。この一件は、著作権のあり方、情報の信頼性、そしてウェブスクレイピングというデータ収集手法の倫理的・法的正当性という、AI時代における極めて重要な論点を私たちに突きつけています。

 テクノロジーの進歩と、コンテンツ制作者の権利保護をいかに両立させるか。今後、AI企業とメディアの間で新たなルール作りが進むのか、あるいは司法の判断が示されるのか。この問題の行方は、今後のインターネットとAI、そしてメディアの未来を占う上で、重要な試金石となりそうです。

この記事が気に入ったら
フォローしてね!

  • URLをコピーしました!
  • URLをコピーしました!
目次