[ニュース解説]Anthropic、英国政府と提携しGOV.UKにClaude搭載AIアシスタントを導入

目次

はじめに

 Anthropicが2026年1月27日、英国の科学・イノベーション・技術省(DSIT)と提携し、GOV.UK向けのAIアシスタントを構築・試験運用すると発表しました。初期ユースケースは雇用支援で、求職者への個別対応型サービスを提供します。本稿では、この提携の背景、AIアシスタントの機能、英国におけるAnthropicの取り組みについて解説します。

参考記事

要点

  • Anthropicは英国DSITに選定され、GOV.UK向けのClaude搭載AIアシスタントを構築・試験運用する
  • 初期ユースケースは雇用支援で、求職者への個別キャリアアドバイス、研修アクセス、支援制度の説明などを提供する
  • 2025年2月に締結した覚書(MOU)を基盤とし、安全性を最優先した段階的展開(Scan, Pilot, Scale)を採用する
  • Anthropicのエンジニアが英国政府職員と協働し、政府が独自にシステムを維持できる体制を構築する
  • 英国AI Safety Instituteとの協力、ロンドンオフィスの拡大など、英国でのAnthropicの存在感が拡大している

詳細解説

提携の背景と目的

 Anthropicによれば、今回の選定は2025年2月に英国政府と締結した覚書に基づくものです。覚書では、先進的AIが英国市民向けの公共サービスをどう変革できるかを探求することが合意されていました。

 GOV.UKは、英国政府が運営する統合デジタルサービスポータルで、税金、年金、運転免許証など幅広い行政サービスにアクセスできるプラットフォームです。このポータルにAIアシスタントを導入することで、市民が必要なサービスを見つけやすくなり、個別の状況に応じた案内が可能になると考えられます。

 Pip White(英国・アイルランド・北欧担当責任者)は、「この提携は当社の使命の中核をなすものです。フロンティアAIが公共の利益のために安全に展開される方法を示し、政府がAIを市民が依存するサービスに統合する際の基準を設定します」とコメントしています。

Claude搭載AIアシスタントの機能

 Anthropicの発表では、このAIアシスタントは単なる質問応答システムではなく、アジェンティック(自律的)なシステムとして設計されています。アジェンティックAIとは、ユーザーの目的を理解し、複数のステップにわたって能動的にタスクを遂行するAIシステムを指します。

 具体的には、政府プロセスを通じて人々を積極的に案内し、個別に調整された支援を提供します。また、やり取りの文脈を維持するため、利用者が再度アクセスした際にゼロから始める必要がなくなります。

 データ管理については、利用者が何を記憶させるかを完全に制御でき、いつでもオプトアウト可能です。すべての個人情報は英国データ保護法に従って取り扱われます。公共サービスにおけるAI導入では、データ主権とプライバシー保護が特に重要な考慮事項となります。

雇用支援の具体的内容

 初期ユースケースとして、AIアシスタントは労働市場に参入または再参入する求職者を支援します。Anthropicによれば、個別のキャリアアドバイス、研修へのアクセス支援、利用可能な支援制度の説明、個々の状況に基づいた適切なサービスへのルーティングを提供します。

 従来の政府ポータルでは、利用者が自ら情報を探し出す必要がありましたが、AIアシスタントが対話を通じて個別の状況を把握し、最適な支援を案内する点が特徴です。雇用支援は多くの市民に関わるテーマであり、パイロット運用での学びが他分野への展開にも活かされると考えられます。

段階的展開と安全性への配慮

 Anthropicは、英国政府の「Scan, Pilot, Scale」フレームワークに従って展開すると説明しています。これは、小規模でテストし、学びを得て、反復改善を行ってから広範な展開を行う段階的アプローチです。

 さらに、この提携の中心的な目標の一つは、英国政府内にAIおよびAI安全性の専門知識を構築することです。Anthropicのエンジニアが政府デジタルサービス(GDS)の公務員およびソフトウェア開発者と協働することで、政府が独自にシステムを維持できる体制を整えます。公共サービスの継続性を考えると、外部ベンダーへの依存を減らし、内製化能力を高めることは重要な視点と思います。

英国におけるAnthropicの取り組み

 今回の提携は、Anthropicの英国への投資拡大の一環です。Anthropicによれば、英国AI Safety Instituteとの協力を継続しており、モデルのテストと評価を行っています。この協力で開発された安全対策と評価フレームワークが、Claudeの公共部門およびその他での展開に情報を提供します。

 AI Safety Instituteは2023年に設立された世界初の国立AI安全研究機関で、先進的AIモデルのリスク評価と安全性基準の策定を担っています。Anthropicがこの機関と密接に協力していることは、安全性重視の姿勢を示していると言えます。

 また、ロンドンオフィスにはAI研究者が増えており、市場開拓、応用AI、政策などの機能も拡大しています。Chris Ciauri(国際担当マネージングディレクター)は、「Anthropicの英国チームは、最先端モデルの進歩と、incident.ioやWordsmithのような急成長スタートアップからWPPやロンドン証券取引所グループのような企業まで、公共部門と広範な英国ビジネス環境の変革において重要な役割を果たしています」とコメントしています。

国際的な公共サービスAI展開

 Anthropicの発表では、今回の取り組みは世界的な政府・組織との提携の一部であるとされています。英国では、ロンドン・スクール・オブ・エコノミクスと提携して学生にClaudeへのアクセスを提供しています。

 アイスランドでは、教育・児童省と提携し、世界初の国家レベルAI教育パイロットプログラムを開始しました。全国の教師がClaudeにアクセスし、授業準備や生徒の学習支援に活用しています。

 さらに、ルワンダ政府とも提携し、数十万人の学習者にAI教育を提供しています。これらの取り組みは、公共サービスへのAI統合が先進国だけでなく新興国でも進んでいることを示しています。

まとめ

 Anthropicと英国政府の提携は、先進的AIを公共サービスに安全に統合する先駆的な取り組みです。段階的展開、データ保護への配慮、政府内の専門知識構築など、持続可能な導入を目指す姿勢が特徴と言えます。雇用支援という身近なテーマから始めることで、市民の信頼を得ながら他分野への展開につなげる戦略と考えられます。

この記事が気に入ったら
フォローしてね!

  • URLをコピーしました!
  • URLをコピーしました!
目次