[ニュース解説]AIが生成した「偽の判例」、法廷で発覚した顛末と専門家が学ぶべき教訓

目次

はじめに

 近年、文章作成や情報収集の効率を飛躍的に向上させるとして、生成AIの活用が急速に広がっています。しかし、その利便性の裏には、使い方を誤ると深刻な事態を招きかねないリスクも潜んでいます。

 本稿では、実際の殺人事件の裁判で弁護士がAIを使用して作成した資料に致命的な誤りが含まれていた事例を取り上げます。この事例から、専門家がAIとどのように向き合うべきか、その教訓を分かりやすく解説します。

参考記事

要点

  • オーストラリアの殺人事件裁判で、弁護団が準備書面の作成にAIを利用した。
  • 提出された書面には、AIが生成した存在しない判例偽の引用が含まれていた。
  • この誤りは裁判官によって発見され、裁判の進行に24時間の遅れが生じる事態となった。
  • 弁護士は全面的に責任を認め謝罪し、裁判官はAI生成物の独立した徹底的な検証の必要性を強く指摘した。
  • この一件は、専門家がいかにAIの特性を理解し、ファクトチェックを徹底する必要があるかを浮き彫りにした事例である。

詳細解説

裁判で何が起こったのか

 事件が起きたのは、オーストラリアのビクトリア州最高裁判所で行われていた、未成年者が被告人となった殺人事件の裁判です。被告人の弁護団を率いる高位の弁護士、リシ・ナスワニ氏は、裁判所に提出する準備書面の作成に生成AIを利用しました。

 しかし、その書面の内容を確認した裁判官のスタッフは、引用されている判例が見つからないことに気づきました。弁護団に確認を求めたところ、引用された判例は「存在しない」ものであり、書面には「架空の引用」が含まれていることを認めました。

 このAIが生成した誤情報により、裁判の進行は24時間遅延しました。ナスワニ弁護士は「起きたことについて深くお詫びし、恥ずかしく思っています」と述べ、裁判官に謝罪しました。

なぜこのような誤りが起きたのか:AIの「ハルシネーション」

 今回の事件の背景には、生成AIが持つ「ハルシネーション(幻覚)」と呼ばれる現象があります。

 生成AIは、膨大なデータから学習したパターンに基づき、次に来る単語を確率的にもっともらしい順番で予測し、文章を生成します。この仕組み上、AIは事実に基づいているかどうかを判断できません。そのため、まるで事実であるかのように、存在しない情報(偽の論文、判例、ニュース記事など)を自然な文章で生成してしまうことがあります。これがハルシネーションです。

 弁護団は、AIが提示した情報のいくつかが正確であったため、他の情報も正しいだろうと思い込んでしまったと説明しています。専門家であっても、AIが生成したもっともらしい嘘を見抜くのは容易ではないのです。

裁判官の指摘と専門家の責任

 ジェームズ・エリオット裁判官は、この事態を「不満足なもの」と評し、司法の根幹に関わる問題であると指摘しました。そして、次のように述べ、AI利用における厳格なルールを強調しました。

「AIの利用は、その生成物が独立して徹底的に検証されない限り、許容されるものではありません。」

 これは、AIが生成したコンテンツの正確性を検証する責任が、全面的に利用する人間側にあることを明確に示しています。同様の事例は2023年にアメリカでも起きており、ChatGPTが生成した架空の判例を提出した弁護士に罰金が科されています。この問題は、法曹界に限らず、AIを利用するすべての専門家にとって世界共通の課題と言えるでしょう。

まとめ

 本稿では、オーストラリアの裁判で実際に起きた、AIによる偽情報の生成とそれが引き起こした混乱について解説しました。

 生成AIは、使い方次第で私たちの業務を強力にサポートしてくれるツールです。しかし、その生成物にはハルシネーションのような誤りが含まれる可能性が常にあります。AIが生成した情報はあくまで「下書き」や「たたき台」として捉え、特に専門的な分野で利用する際は、一次情報にあたるなどの徹底したファクトチェック(事実確認)が不可欠です。

 AIの回答を鵜呑みにせず、その情報の最終的な責任は人間が負うという意識を持つこと。これこそが、これからの時代に専門家がAIと賢く付き合っていく上で最も重要な心構えと言えるでしょう。

この記事が気に入ったら
フォローしてね!

  • URLをコピーしました!
  • URLをコピーしました!
目次