はじめに
現代社会の様々な分野で活用が進むAI(人工知能)が、今、法執行の現場にも導入され始めています。特に、警察官の業務負担を軽減する目的で、AIが警察報告書の作成を支援するツールが登場し、米国内で注目を集めています。
本稿では、米CNNの「How AI is being used by police departments to help draft reports」という記事を基に、この新しい技術がもたらす効率化という「光」の側面と、司法の公正性に関わる「影」の側面について詳しく解説していきます。
参考記事
- タイトル: How AI is being used by police departments to help draft reports
- 発行元: CNN
- 発行日: 2025年8月12日
- URL: https://edition.cnn.com/2025/08/12/tech/ai-police-reports-axon
要点
- 米国の警察において、AIがボディカメラの音声記録から警察報告書の草案を自動生成するツール「Draft One」の導入が進んでいる。
- このツールは、報告書作成にかかる時間を大幅に削減し、警察官が他の業務に集中できる環境を作ることで、業務効率化や人員不足の解消に貢献することが期待されている。
- 一方で、AIが事実に基づかない情報を生成する「ハルシネーション」のリスクや、音声認識の不正確さ、AIモデルに内在するバイアスといった技術的な課題が懸念点である。
- AIが生成した草案が保存されず編集履歴を追跡できないことや、AI使用の事実が最終報告書に明記されない場合があるなど、プロセスの透明性に重大な問題が指摘されている。
- 警察報告書は、その後の起訴判断や裁判に大きな影響を与える司法プロセスの根幹であるため、AIの利用は個人の権利に深刻な影響を及ぼす可能性がある。
詳細解説
警察報告書もAIが書く時代へ
事件や事故が発生した際、警察官が作成する「警察報告書」は、単なる記録以上の重要な役割を担います。これは、何が起こったのかを記述する公式な文書であり、検察官が起訴を判断する際の基礎資料となり、法廷では証拠としても扱われます。つまり、司法プロセスの出発点とも言える非常に重要な文書です。
この報告書の作成は、警察官にとって時間のかかる業務の一つでした。しかし、テーザー銃やボディカメラで知られる法執行技術企業Axon社が開発した「Draft One」というAIツールが、この状況を変えようとしています。
「Draft One」の仕組み
「Draft One」は、以下のステップで報告書の草案を作成します。
- 警察官が装着したボディカメラで、現場でのやり取りを録音・録画します。
- AIがその音声データを自動で文字起こしします。
- 文字起こしされたテキストを、OpenAI社のChatGPTを基に警察業務向けにカスタマイズされた大規模言語モデル(LLM)が解析します。
- LLMが、報告書として適切な形式と内容の文章を生成します。これが「草案」となります。
- 警察官は、AIが生成した草案を確認・修正し、情報が不足している箇所(AIが判断できなかった部分など)を追記して報告書を完成させます。
記事によると、このツールを試験導入したコロラド州フォートコリンズ警察署では、これまで45分かかっていた報告書作成が、わずか10分に短縮されたケースもあるといいます。これにより、警察官はパトロールや犯罪予防活動といった、より市民の安全に直結する業務に多くの時間を割けるようになり、慢性的な人員不足に悩む警察組織にとって大きなメリットとなります。
効率化の裏に潜むリスクと課題
業務効率を飛躍的に向上させる可能性がある一方で、「Draft One」には看過できない複数のリスクが指摘されています。
1. 正確性の問題:「ハルシネーション」と文字起こしの限界
「Draft One」が使用する大規模言語モデル(LLM)には、ハルシネーション(幻覚)と呼ばれる、事実に基づかないもっともらしい情報を生成してしまうという固有のリスクがあります。AIが文脈を誤解し、実際にはなかった発言や出来事を報告書に書き加えてしまう可能性はゼロではありません。
また、音声認識の精度も課題です。方言や強い訛り、あるいは小さな声での発言を正確に聞き取れない場合があります。さらに、うなずきや身振りといった非言語的なコミュニケーションは記録されないため、重要な情報が報告書から抜け落ちてしまう可能性があります。
2. 透明性の欠如:検証不可能な編集プロセス
現在の「Draft One」の仕様で最も懸念されているのが、透明性の問題です。AIが最初に生成した草案は、警察官が最終的な報告書を提出すると保存されずに消えてしまいます。
これは、もし警察官が自分に不都合な部分を削除したり、意図的に内容を書き換えたりしても、その編集の過程を第三者が後から検証することが不可能であることを意味します。警察の権力行使の正当性を担保する上で、これは非常に大きな問題です。
この懸念に対し、ユタ州ではAIで作成された報告書にはその旨を明記するよう義務付ける法律が可決されました。しかし、記事で紹介されているフォートコリンズ警察署では、この免責事項を表示しない設定にしているとのことで、対応は分かれています。
3. 司法への影響:バイアスと誤った判断
警察報告書は、一人の人間のその後の人生を大きく左右する力を持っています。もしAIの学習データに社会的な偏見(バイアス)が含まれていた場合、特定の民族や社会的背景を持つ人々に対して、無意識のうちに否定的な記述がなされる恐れがあります。
不正確な、あるいは偏った報告書が作成され、それが基になって誤った起訴や不当な判決が下されるようなことがあれば、司法制度そのものへの信頼が損なわれかねません。
まとめ
AIによる警察報告書の作成支援は、警察業務の効率化という大きな可能性を秘めた技術です。多忙な警察官の負担を軽減し、より多くの時間を市民の安全確保に充てられるようになるというメリットは計り知れません。
しかしその一方で、本稿で見てきたように、AI技術の不完全さやプロセスの不透明さは、司法の公正性という根幹を揺るがしかねない重大なリスクをはらんでいます。効率化という恩恵を最大限に享受しつつ、個人の権利を守るためには、AIが生成した草案の保存義務化や、AI使用の完全な開示、厳格な監査体制の構築など、技術の導入と並行して徹底したルール作りと社会的な議論が不可欠と言えるでしょう。