はじめに
本稿では、AI(人工知能)が誤った情報を生成する「ハルシネーション(幻覚)」の問題が、最新のAIモデルでより深刻になっているという現状について、その原因や影響、そして対策について詳しく解説します。
引用元記事
- タイトル: Why AI ‘Hallucinations’ Are Worse Than Ever
- 発行元: Forbes
- 発行日: 2025年5月6日
- URL: https://www.forbes.com/sites/conormurray/2025/05/06/why-ai-hallucinations-are-worse-than-ever/
要点
- 最近リリースされたOpenAIやDeepSeekなどの最先端AIツールでは、以前のモデルよりもハルシネーション(AIが誤った情報を生成する現象)の発生率が高まっていることが報告されています 。
- 特に、より高度な「推論」を行うように設計されたモデルでこの傾向が顕著であり、その原因究明と対策が急務となっています 。
- この問題は、AI業界全体の進化における重要な課題と言えるでしょう。
詳細解説
AIの「ハルシネーション(幻覚)」とは何か
AIにおけるハルシネーションとは、AIボットがアクセス可能な情報に基づいて誤った情報を生成し、それを事実であるかのように提示する現象を指します 。これは、AIが学習したデータに含まれない情報や、データのパターンを誤って解釈した場合に発生しやすくなります 。生成される情報は文法的に正しく、一見もっともらしく見えるため、人間が誤情報であると見抜くことが難しい場合があります 。
一部の研究者は、「ハルシネーション」という用語がAIを擬人化しすぎていると批判しています。人間の幻覚とは異なり、AIには意識や意図がないため、AIが誤情報を生成する現象をより正確に表す言葉が必要であるという意見もあります 。
なぜ最新AIでハルシネーションが悪化しているのか
ハルシネーションは以前のAIモデルにも存在しましたが、OpenAIの最新モデルo3やo4-mini、中国企業DeepSeekのR1推論モデルなど、特に「推論モデル」と呼ばれる新しいタイプのAIで発生率の増加が報告されています 。これらの推論モデルは、段階的な思考プロセスを経て回答を導き出すように設計されており、その複雑な「思考」の各ステップでハルシネーションが発生する可能性があるため、結果として誤った回答に至る機会が増えると考えられています 。
Vectara社の研究者は、推論モデルの高度な「思考」プロセス自体よりも、これらのモデルの訓練方法に原因がある可能性を指摘しています 。また、AIモデルが回答を出すことを優先するように設計されているため、確信が持てない場合でも「わからない」と答える代わりに、誤った情報を提供する傾向があることも、ハルシネーションの一因と考えられています 。不完全または偏ったデータセット、AIモデルの訓練における欠陥もハルシネーションを引き起こす要因となります 。
具体的なハルシネーションの発生率
OpenAIの社内テストによると、o3モデルは著名人に関する質問(PersonQAテスト)で33%、短い事実に基づく質問(SimpleQAテスト)では51%の割合でハルシネーションを発生させました 。より小型で高速処理を目指したo4-miniモデルでは、PersonQAテストで41%、SimpleQAテストでは79%とさらに高い発生率を示しました 。一方で、OpenAIのChatGPTのアップデート版であるGPT-4.5は、SimpleQAテストでのハルシネーション率が37.1%と、o3やo4-miniよりは低い結果となっています 。
独立系AI研究企業Vectaraのテスト(ニュース記事の要約をチャットボットに依頼)では、OpenAIのo3は6.8%、DeepSeekのR1は14.3%のハルシネーション率を記録しました 。特にDeepSeek R1の数値は、同社の他のモデル(DeepSeek-V2.5が2.4%)と比較して著しく高いものでした 。IBMのGranite 3.2モデルも、同社の以前のモデルより高いハルシネーション率を示しています 。
AI企業と研究者の対応
OpenAIはo3モデルのハルシネーション率の高さを認め、より確実な主張をする傾向が、正しい回答と誤った回答の両方を増やす結果につながっていると分析しています 。そして、この問題を理解し修正するためにはさらなる研究が必要であるとしています 。Google、Microsoft、Anthropicといった他のAI開発企業も、ハルシネーション問題への対策に取り組んでいると表明しています 。Microsoftの「Correction」やGoogleの「Vertex」のように、AIボットの応答に含まれる可能性のある不正確な情報を検出する製品もリリースされていますが、専門家はこれらがハルシネーションを完全に解決するものではないとの見方を示しています 。
研究者の間では、AIボットからハルシネーションを完全になくすことは不可能であるとの意見が主流ですが、発生率を低減するための様々なアプローチが研究されています 。具体的には、AIモデルに「わからない」と答える能力(不確実性)を教える方法や 、質問に関連する文書を参照して回答を生成する「検索拡張生成(RAG)」といった技術が提案されています 。
まとめ
本稿では、AIのハルシネーションが最新の推論モデルで悪化している現状と、その背景、対策について解説しました。AIは私たちの社会に大きな変革をもたらす可能性を秘めていますが、その一方でハルシネーションのような課題も抱えています。
重要なのは、AIを万能なものと過信せず、その特性と限界を正しく理解した上で活用していく姿勢です。特に、AIが生成する情報の真偽を慎重に見極め、必要に応じて専門家や信頼できる情報源で確認することが、これからのAI時代を賢く生きる上で不可欠となるでしょう。AI企業や研究者による技術的な改善努力とともに、私たち利用者自身のリテラシー向上が求められています。
コメント