[ニュース解説]Anthropicがカリフォルニア州のAI規制法案「SB 53」に対して支持を表明

目次

はじめに

 本稿では、AI開発の最前線にいる企業の一つ、Anthropic社の発表「Anthropic is endorsing SB 53」をもとに、米国カリフォルニア州で審議されているAI規制法案「SB 53」について、その背景や具体的な内容、業界の反応について解説します。

参考記事

要点

  • 米大手AI開発企業Anthropicが、カリフォルニア州の強力なAIシステムを対象とする規制法案「SB 53」を公式に支持した。
  • この法案は、年間売上5億ドル以上かつ10^26 FLOPS以上の計算量で訓練されたフロンティアAIモデルを開発する大規模企業に対し、壊滅的リスク(50人以上の死者または10億ドル以上の損害をもたらすリスク)に関する安全フレームワーク透明性レポートの公開を義務付けるものである。
  • 過去の法案SB 1047の教訓から、特定の技術を強制するのではなく、「信頼しつつ検証する」という原則に基づき、情報公開を重視している点が特徴となっている。
  • 法案は9月初旬に修正され、当初含まれていた第三者監査要求条項が削除された。
  • OpenAIは連邦レベルでの統一規制を支持する立場を表明し、業界内で意見が分かれている。
  • Anthropicは、この法案によって安全性への取り組みが競争上の不利にならず、業界全体で透明性を確保する公平な環境が生まれると評価している。

詳細解説

背景:なぜ今、カリフォルニアでAI規制なのか?

 Anthropicをはじめ、多くのAI開発企業が集まるカリフォルニア州では、以前からAIの安全性に関する議論が活発でした。過去には「SB 1047」という規制法案が検討されましたが、その内容は技術的に「規範的」すぎたため、業界からの支持を得られず、ニューサム知事によって拒否権が行使されました。

 Anthropicは、AIの安全性確保は本来、州ごとではなく連邦レベルで統一的に対処されるべきだと考えています。しかし、ワシントン(米国連邦政府)での合意形成を待っていては、急速なAI技術の進歩に追いつけません。このような状況下で、カリフォルニア州のニューサム知事が招集した専門家ワーキンググループは「信頼しつつ検証する(trust but verify)」というアプローチを提言しました。スコット・ウィーナー州上院議員のSB 53は、この原則を具体化した法案です。

SB 53が企業に求める5つの主要な義務

SB 53は、年間売上5億ドル以上で、10^26 FLOPS(1,000,000,000,000,000,000,000,000,000回の浮動小数点演算)以上の計算量で訓練された最も強力なAIシステムを開発する大規模企業に対して、以下の5つの義務を課します。これにより、社会に対する透明性と説明責任を確保することを目指しています。

  1. 安全フレームワークの開発と公開
     企業は、壊滅的リスク(50人以上の死者または10億ドル以上の損害に繋がりうるリスク)をどのように管理、評価、緩和するのかを記述した「安全フレームワーク」を策定し、公開する必要があります。
  2. 透明性レポートの公開 
     新しい強力なモデルを導入する前に、壊滅的リスク評価の概要と、安全フレームワークで定めた責務を果たすために講じた措置をまとめた「透明性レポート」を公開しなければなりません。
  3. 重大な安全インシデントの報告 
     重大な安全上のインシデントが発生した場合、15日以内に州へ報告することが義務付けられます。また、内部展開モデルの壊滅的リスク評価の要約についても、機密扱いで州に開示する必要があります。
  4. 内部告発者の保護
     これらの要件違反や、壊滅的リスクから生じる公共の安全への重大な危険について報告した従業員(内部告発者)を保護する規定が盛り込まれています。
  5. 公的説明責任
     企業が自ら公開したフレームワークの約束事を守らない場合、罰金が科される可能性があります。

 これらの要件の多くは、Anthropicが「責任あるスケーリングポリシー」や「システムカード」の公開を通じて既に行っている実践を法的に標準化するものです。Google DeepMind、OpenAI、Microsoftなどの他の主要なフロンティア研究所も、競争を続けながら同様のアプローチを採用しています。また、この法案はスタートアップや中小企業を対象外としており、過度な規制負担をかけないよう配慮されています。

業界の分かれる反応

 Anthropicの支持表明は、AI業界内で意見が分かれていることを浮き彫りにしました。OpenAIのグローバル・アフェアーズ担当ディレクターであるChris Lehane氏は、Anthropicの発表に対して即座に反応し、LinkedInで「アメリカは州や地方の規制のパッチワークではなく、明確で全国統一のルールでリードするのが最善だ」と述べ、連邦レベルでの規制を支持する立場を再確認しました。

 一方で、Consumer Technology Association(CTA)やChamber for Progressなどの主要な技術業界ロビー団体は、この法案に反対するロビー活動を強化しています。また、トランプ政権下では州レベルのAI規制を阻止する動きもあり、中国とのAI競争を理由に連邦政府への一元化を推進する共和党議員もいます。

 しかし、Anthropicの共同創設者Jack Clark氏は、Xで「業界は今後数年間で強力なAIシステムを構築する予定であり、連邦政府の行動を待つことはできない」と反論し、「我々は長い間連邦基準を好むと言ってきたが、それがない以上、これは無視できないAIガバナンスの確かな青写真を作る」と述べています。

法案の最近の修正

 SB 53は立法過程で重要な修正を受けています。9月初旬、カリフォルニア州議会は、AI開発企業に第三者による監査を義務付ける条項を法案から削除しました。技術企業は、このような第三者監査は過度に負担が重いと主張し、以前から反対していました。この修正により、法案はより業界に受け入れられやすい内容となったと評価されています。

 現在、多くの主要AI研究所は、SB 53が要求するような内部安全ポリシーの何らかの版を既に持っています。OpenAI、Google DeepMind、Anthropicは定期的にモデルの安全性レポートを公開していますが、これらの企業は自分自身以外の誰にも拘束されないため、時には自ら課した安全基準に遅れをとることもあります。SB 53は、これらの要件を州法として設定し、AI研究所が遵守しなかった場合の金銭的影響を伴うことを目指しています。

Anthropicが指摘する今後の課題

 SB 53は強力な規制の基盤ですが、Anthropicは今後さらに改善すべき点として以下の3つを挙げています。

  1. 規制対象の決定基準
     現在の法案では、モデルの訓練に使用された計算量(10^26 FLOPS)と企業の年間売上(5億ドル以上)を基準に規制対象を決めています。これは出発点としては妥当ですが、この基準だけでは将来登場する強力なモデルを捉えきれない可能性があります。
  2. 情報公開の具体性
     企業が行うテストや評価、リスク緩和策について、より詳細な情報の開示を義務付けるべきだと指摘しています。Anthropicは、Frontier Model Forumを通じて他社と協力し、安全性研究の共有、レッドチーム・テストの文書化、導入決定の説明を行ってきましたが、このような取り組みを業界全体に拡大することで、知見が深まり安全性が向上するとしています。
  3. 規制の柔軟な更新
     AI技術は急速に進化するため、規制もそれに合わせて更新できる仕組みが必要です。安全性とイノベーションのバランスを保ちながら、規制当局がルールを柔軟に見直せるようにすべきだとしています。

まとめ

 本稿では、Anthropicが支持を表明したカリフォルニア州のAI規制法案「SB 53」について、業界の反応や法案の修正過程も含めて詳細に解説しました。この法案は、AI開発企業に一方的な義務を課すのではなく、情報公開と透明性を核とすることで、企業が自らの責任で安全性を追求するよう促す、新しいアプローチを採用しています。

 Anthropicによる支持表明は業界に大きな影響を与える一方で、OpenAIをはじめとする他の企業は連邦レベルでの統一規制を支持するなど、意見の分裂も明らかになりました。また、第三者監査条項の削除など、立法過程での修正が法案をより実現可能なものにしていることも注目されます。

 AI開発の最前線を走る企業が規制議論に積極的に参加し、より良いルール形成に貢献しようとする姿勢は、日本におけるAIガバナンスを考える上でも非常に参考になります。技術の発展を妨げることなく、いかにして社会的な安全を確保していくかが今後より重要になっていきます。

この記事が気に入ったら
フォローしてね!

  • URLをコピーしました!
  • URLをコピーしました!
目次