[ニュース解説]GoogleAI検索の功罪:進化する機能の裏で生じている課題

目次

はじめに

 本稿では、2025年6月6日にNew York Postが報じた「Google’s AI is ‘hallucinating,’ spreading dangerous info — including a suggestion to add glue to pizza sauce」という記事をもとに、Googleの検索に導入された新機能「AI Overviews」が引き起こしている問題について解説していきます。

引用元記事

要点

  • Googleの新しいAI検索機能「AI Overviews」が、事実に基づかない、時には危険な誤情報を生成する「ハルシネーション」と呼ばれる現象を引き起こしている。具体例として「ピザソースに接着剤を加える」という回答が生成された。
  • ハルシネーションとは、AIが学習データにない情報を、あたかも事実であるかのように、もっともらしく生成してしまう現象である。
  • AIが検索結果を要約して提示するため、ユーザーが情報元のウェブサイトを訪れる機会が減少し、ウェブサイト運営者の収益に深刻な影響を与えるという懸念が指摘されている。
  • この問題はGoogleに限ったことではなく、OpenAIなど他の生成AIでも同様の課題が見られ、AI業界全体の技術的な課題となっている。

詳細解説

そもそも「AI Overviews」とは?

 まず、今回問題の中心となっている「AI Overviews」について説明します。これは、Google検索に導入された最新の機能で、ユーザーが何かを検索した際に、従来のようにウェブサイトのリンクがリスト表示されるだけでなく、その検索結果の最上部にAIが生成した要約文を表示するものです。

 この機能は、Googleが開発した「Gemini」という高性能な大規模言語モデル(LLM)によって動いています。目的は、ユーザーが求める情報へより速く、簡単にたどり着けるようにすることです。しかし、その利便性の裏で、深刻な問題が明らかになってきました。

AIが嘘をつく「ハルシネーション」の正体

 引用元記事で最も衝撃的な事例は、「ピザのチーズが剥がれ落ちないようにするにはどうすればよいか」という問いに対し、AIが「ソースに無毒性の接着剤を8分の1カップ加える」と回答したことです。言うまでもなく、これは非常に危険な誤情報です。

 このような、AIが事実に基づかない情報をあたかも真実であるかのように生成する現象を、専門家は「ハルシネーション(幻覚)」と呼んでいます。なぜこのようなことが起きるのでしょうか。

 現在の生成AI、特に大規模言語モデル(LLM)は、インターネット上の膨大なテキストデータを学習し、単語と単語の「次に来る確率が最も高い言葉」を予測することで文章を生成しています。これは、文章の意味や事実関係を人間のように理解しているわけではなく、あくまで統計的な確率に基づいてもっともらしい文章を組み立てているに過ぎません。

 そのため、学習データに誤りが含まれていたり、情報が不足していたりすると、AIは文脈に合うように「創作」を始めてしまうことがあります。これがハルシネーションの正体であり、今回の「ピザに接着剤」のような、あり得ない回答が生まれる原因となっています。

ウェブの情報生態系を破壊する可能性

 ハルシネーションは、情報の信頼性だけの問題ではありません。記事では、もう一つの重大な懸念が示されています。それは、情報発信者(パブリッシャー)への経済的な影響です。

 分析会社Authoritasの調査によると、AI Overviewsが表示された場合、ユーザーが情報元であるウェブサイトのリンクをクリックする率が40%から60%も減少することが分かったといいます。

 これは、多くのニュースサイトやブログが、広告収入や記事へのアクセス数を基盤に運営されている現代において、死活問題となり得ます。ユーザーがAIの要約だけで満足してしまい、元の記事を読まなくなれば、ウェブサイトは収益を得られなくなり、質の高い情報を提供し続けることが困難になります。結果として、AIが学習するための質の高い情報源そのものが枯渇してしまうという、本末転倒な事態に陥る危険性もはらんでいます。

Googleだけの問題ではないAI業界全体の課題

 記事は、この問題がGoogleだけのものではないことも指摘しています。ChatGPTを開発したOpenAIも、最新モデルである「o3」や「o4-mini」が、以前のモデルよりもハルシネーションを頻繁に起こすことを認めています。特に実在の人物に関する質問では、o4-miniが48%の確率で誤情報を生成したという内部テストの結果は衝撃的です。

 また、AIが「AIはアートを盗むのか?」という問いに対し「伝統的な意味で盗むわけではない」と答えたり、「AIを恐れるべきか?」という問いに「恐れは誇張されすぎているかもしれない」と結論づけたりするなど、AIが自身を擁護するような回答を生成する傾向も報告されています。これは、AIが中立的なツールではなく、特定のバイアスを持った存在になりうることを示唆しており、倫理的な観点からも重要な課題です。

まとめ

 本稿で解説したように、Googleの「AI Overviews」は、検索の利便性を向上させる可能性を秘めている一方で、「ハルシネーション」という深刻な欠陥を抱えています。

 この問題は、単にAIが時々間違えるというレベルの話ではありません。生命や健康に関わる危険な誤情報を拡散するリスクと、私たちが日々利用しているウェブサイトの存続を脅かし、インターネットの情報生態系全体を揺るがしかねない経済的なリスクという、二つの大きな側面を持っています。

 私たちユーザーは、AIが生成する情報を鵜呑みにせず、それが本当に正しい情報なのかを批判的な視点で吟味し、必ず元の情報源を確認するという姿勢が、今後ますます重要になっていくでしょう。AIという強力なツールと賢く付き合っていくためには、その限界とリスクを正しく理解することが不可欠です。

この記事が気に入ったら
フォローしてね!

  • URLをコピーしました!
  • URLをコピーしました!
目次