[ニュース解説]OpenAIとMicrosoftが州司法当局と協力:AI安全性タスクフォースの設立

目次

はじめに

 CNNが2025年11月13日に報じたところによれば、米国のノースカロライナ州とユタ州の司法長官が、OpenAIとMicrosoftと協力してAI安全性タスクフォースを設立しました。連邦レベルでのAI規制法が不在のなか、州レベルでAIの安全対策を開発する取り組みが始まりました。本稿では、この動きの背景と実効性について解説します。

参考記事

・本稿中の画像に関しては特に明示がない場合、引用元記事より引用しております。
・記載されている情報は、投稿日までに確認された内容となります。正確な情報に関しては、各種公式HPを参照するようお願い致します。
・内容に関してはあくまで執筆者の認識であり、誤っている場合があります。引用元記事を確認するようお願い致します。

要点

  • ノースカロライナ州とユタ州の司法長官が「AI Task Force」を設立し、OpenAIとMicrosoftが参加を表明した
  • タスクフォースはAI開発者が実装すべき基本的な安全対策を開発し、特に子どもへの害を防ぐことを目指す
  • 米国には包括的な連邦AI規制法が存在せず、一部の連邦議員はAI規制を制限しようとしている
  • 今年、40人の司法長官が共和党の法案からAI規制モラトリアム条項の削除に成功した
  • タスクフォースが開発する対策は技術的には任意だが、州の法執行機関の連携を強化し、消費者保護のための法的措置を取りやすくする効果がある

詳細解説

AI安全性タスクフォースの設立背景

 CNNによれば、ノースカロライナ州司法長官のジェフ・ジャクソン氏(民主党)とユタ州司法長官のデレク・ブラウン氏(共和党)が月曜日に「AI Task Force」の設立を発表しました。OpenAIとMicrosoftはすでに参加を表明しており、他の州規制当局やAI企業も参加することが期待されています。

 タスクフォースの目的は、AI開発者が実装すべき「基本的な安全対策」を開発し、特に子どもを含むユーザーへの害を防ぐことです。また、技術の発展に伴って新たに生じるリスクを特定することも目指しています。

 この取り組みの背景には、AIが宿題から仕事、さらには恋愛関係にまで大きな役割を果たすようになった一方で、技術が安全に開発・使用されることを保証する監視体制がほとんど存在しないという現状があります。

連邦レベルでのAI規制の空白

 CNNの報道では、米国には包括的な連邦AI規制法が存在しないことが指摘されています。一部の連邦議員はAI規制を制限しようとする動きさえ見せています。

 ジャクソン氏とブラウン氏は、今年初めに40人の司法長官とともに、共和党の包括的な税制・歳出削減法案からAI規制モラトリアム条項を削除させることに成功しました。この条項は、州法の執行を10年間阻止する可能性があったとされています。

 ただし、今年成立した連邦AI法も1つあります。それは「Take It Down Act」で、合意なしのディープフェイクポルノを特に取り締まるものです。

 ジャクソン氏はCNNとのインタビューで、議会が迅速にAI規制を進めることには期待していないと述べています。「彼らはソーシャルメディアに関しても、インターネットプライバシーに関しても、子どもに対してさえも何もしませんでした。そしてAIに関しては、州が実質的な対策を取ることを妨げることで、間違った方向に進みかけました」と語っています。

AI安全性への懸念の高まり

 CNNは、AI安全性リスクへの懸念がここ数カ月で高まっていることを伝えています。技術が妄想を引き起こしたり、ユーザーの自傷行為に寄与したりするという報告が相次いでいるためです。OpenAIやMetaといった企業も、若年層が成人向けコンテンツにアクセスするのを阻止するために対応を急いでいます。

 これらの報告は、AI技術が急速に普及する一方で、その影響に対する理解や対策が追いついていない現状を示していると考えられます。特に、精神的に脆弱な状態にあるユーザーや発達段階にある子どもたちへの影響は、慎重に評価される必要があるでしょう。

企業による安全性アプローチの違い

 興味深いことに、CNNは主要なAI企業の安全性に対するアプローチが分かれ始めていることを報じています。

 OpenAIのサム・アルトマンCEOは先月、同社の児童安全保護への投資により「大人を大人として扱う」ことが可能になると述べ、認証された成人ユーザーがエロティックな会話を行うことを許可するとしました。

 一方、MicrosoftのAI部門CEOであるムスタファ・スレイマン氏はCNNに対し、同社は成人に対しても性的またはロマンチックな会話を許可せず、「子どもたちが使うことを信頼できるAI」を作りたいと述べました。別の若年ユーザー向けエクスペリエンスを用意しない方針です。

 Microsoftの州政府関係部門ゼネラルマネージャーのキア・フロイド氏は、タスクフォースへの参加に関する声明で「この取り組みは、人工知能の恩恵を活用しながら、利害関係者と協力して意図しない結果を理解し軽減するという共通のコミットメントを反映しています」と述べています。

 この2社のアプローチの違いは、AI業界内でも安全性と利便性のバランスをどう取るかについて、異なる考え方が存在することを示しています。

タスクフォースの実効性と今後の展望

 CNNによれば、タスクフォースが開発する対策は技術的には任意です。しかし、この取り組みにはもう1つの利点があります。それは、州の最高法執行官たちを集めてAIの発展とリスクを追跡することで、テクノロジー企業が消費者に害を与えた場合に共同で法的措置を取りやすくするという点です。

 ジャクソン氏は、この取り組みが「シンクタンクのグループが集まって」AI安全原則を作成するのとは異なると述べています。法執行権限を持つ州司法長官が関与することで、実効性のある監視と対応が可能になると考えられます。

 ジャクソン氏は、依然として議会がより多くのAI法案を可決することを望んでいます。しかし、「議会は空白を残しており、司法長官がそれを埋めようとするのは理にかなっていると思います」と語っています。

 この動きは、連邦レベルでの規制が進まない中で、州レベルでの対応が実効性を持ち始めていることを示すものと言えるでしょう。今後、他の州や企業がこのタスクフォースに参加するかどうかが、取り組みの成否を左右する可能性があります。

まとめ

 OpenAIとMicrosoftが米国の州司法当局と協力してAI安全性タスクフォースを設立したことは、連邦レベルでの規制が進まない中での重要な一歩と言えます。任意の対策ではありますが、法執行機関の連携強化により、実効性のある監視体制の構築が期待されます。今後、他の州や企業の参加状況、そして開発される具体的な安全対策の内容が注目されるところです。

この記事が気に入ったら
フォローしてね!

  • URLをコピーしました!
  • URLをコピーしました!
目次