はじめに
Google DeepMindが2025年12月10日と11日に、英国政府および英国AI Security Institute(AISI)との包括的なパートナーシップ拡大を発表しました。本稿では、この2つの発表内容をもとに、AI安全性研究の協力体制強化、科学・教育分野へのフロンティアAI提供、公共サービスの近代化、国家安全保障への貢献など、多岐にわたる協力内容について解説します。
参考記事
- タイトル: Deepening our partnership with the UK AI Security Institute
- 著者: William Isaac and Owen Larter
- 発行元: Google DeepMind Blog
- 発行日: 2025年12月11日
- URL: https://deepmind.google/blog/deepening-our-partnership-with-the-uk-ai-security-institute/
- タイトル: Strengthening our partnership with the UK government to support prosperity and security in the AI era
- 著者: Demis Hassabis, Lila Ibrahim, Pushmeet Kohli and Owen Larter
- 発行元: Google DeepMind Blog
- 発行日: 2025年12月10日
- URL: https://deepmind.google/blog/strengthening-our-partnership-with-the-uk-government-to-support-prosperity-and-security-in-the-ai-era/
要点
- Google DeepMindとUK AISIは、2023年11月の協力開始から拡大し、AIモデルのテストに加えて基礎的な安全性研究を含む包括的な研究パートナーシップを締結した
- 英国政府との協力では、AlphaEvolve、AlphaGenome、AI co-scientist、WeatherNextなどのフロンティアAIモデルへの優先アクセスを英国の科学者に提供する
- 2026年に英国初となるGoogle DeepMindの自動化科学研究所を設立し、Geminiと統合された材料科学研究を推進する
- 北アイルランドでの実証実験では、Geminiを活用した教師の業務時間が週平均10時間削減され、AIツールを使用する教師の指導を受けた生徒は新しい問題への対応力が5.5ポイント向上した
- AISIとの共同研究では、Chain of Thought(CoT)モニタリング、社会感情的ミスアラインメント、経済システムへの影響評価という3つの重点領域に焦点を当てる
詳細解説
AISIとの研究パートナーシップ拡大
Google DeepMindは、2023年11月のUK AISI設立当初からモデルテストで協力してきました。今回の新しい覚書により、この協力関係はテストから基礎的な安全性研究を含む包括的なパートナーシップへと拡大されます。
具体的な協力内容には、Google DeepMindの独自モデル、データ、アイデアへのアクセス共有、研究コミュニティへの共同レポートと論文の公開、両チームの専門知識を組み合わせた協力的なセキュリティと安全性研究、複雑な安全性課題に取り組むための技術的議論が含まれます。
この研究パートナーシップは、AIシステムがより安全で確実なものとなるよう、外部の独立した専門家との協力を重視するGoogle DeepMindの戦略の一環と位置づけられます。外部専門家は、新鮮な視点と多様な専門知識を提供する重要な役割を果たすと考えられています。
3つの重点研究領域
AISIとの共同研究は、以下の3つの重要領域に焦点を当てます。
Chain of Thought(CoT)モニタリングでは、AIシステムの「思考過程」を監視する技術の開発に取り組みます。これは、Google DeepMindの過去の研究や、AISI、OpenAI、Anthropicなどとの最近の協力成果である「Chain of Thought Monitorability: A New and Fragile Opportunity for AI Safety」を基盤としています。CoTモニタリングは、AIシステムがどのように回答を生成するかを理解するのに役立ち、解釈可能性研究を補完します。
Chain of Thoughtとは、AIモデルが最終的な回答に至るまでの中間的な推論ステップを指します。これを監視することで、モデルの判断プロセスの透明性を高め、予期しない動作や潜在的なリスクを早期に発見できる可能性があります。
社会感情的ミスアラインメントの倫理的影響の研究では、AIモデルが技術的には指示に正確に従っているものの、人間の幸福と一致しない方法で動作する可能性について調査します。この研究は、Google DeepMindがこの重要なAI安全性領域を定義するのに貢献してきた既存研究を基盤としています。
経済システムへの影響評価では、さまざまな環境における実世界のタスクをシミュレートすることで、AIの経済システムへの潜在的影響を探求します。専門家がこれらのタスクを採点・検証し、その後、複雑性や代表性などの次元に沿って分類することで、長期的な労働市場への影響などの要因を予測することを目指します。
これらの研究領域は、いずれもAIシステムの社会実装における実践的な課題に対応するものであり、技術開発と並行して安全性を確保するアプローチと言えます。
科学分野へのフロンティアAIアクセス提供
英国政府との協力では、科学的発見と教育という2つの基盤分野に焦点を当てます。Google DeepMindによれば、英国は歴史的に新技術を科学進歩に応用してきた実績があり、この遺産を基盤として次世代の科学者にAIツールを提供することを目指すとされています。
英国の科学者には、以下のAIモデルへの優先アクセスが提供されます。AlphaEvolveは高度なアルゴリズム設計のためのGemini搭載コーディングエージェント、AlphaGenomeは科学者がDNAをよりよく理解するためのAIモデル、AI co-scientistは仮想的な科学協力者として機能するマルチエージェントAIシステム、WeatherNextは最先端の気象予報モデル群です。
これらのツールは、顕微鏡や望遠鏡のように科学的能力を強化し、研究者が前例のない複雑さと規模の問題に取り組むことを可能にする設計となっています。既に、タンパク質構造予測のためのAIシステムであるAlphaFoldは、英国だけで約19万人の研究者が、作物の耐性、抗菌薬耐性、その他の重要な生物学的課題の理解を深めるために活用しているとされています。
英国初の自動化科学研究所設立
2026年には、Google DeepMind初となる自動化研究所が英国に設立されます。この研究所は材料科学研究に特化し、Geminiと完全に統合された形で一から構築される予定です。
多分野の研究チームが研究所を監督し、世界クラスのロボティクスを活用して1日あたり数百の材料を合成・特性評価することで、画期的な新材料の特定までのタイムラインを大幅に短縮することを目指します。
新材料の発見は科学における最も重要な取り組みの一つであり、コスト削減やまったく新しい技術の実現可能性を提供します。例えば、常温常圧で動作する超伝導体は、低コストの医療画像診断を可能にし、電力網における電力損失を削減できる可能性があります。その他の新規材料は、先進的なバッテリー、次世代太陽電池、より効率的なコンピューターチップなどを実現することで、重要なエネルギー課題への取り組みに貢献すると考えられます。
材料科学は実験と検証に膨大な時間を要する分野として知られており、AIとロボティクスの統合による自動化は研究効率の大幅な向上につながる可能性があります。
教育分野での実証成果
AIは学習科学に基づく場合、教室体験を強化できるとされています。北アイルランドでの成功した実証プログラムでは、Geminiが管理業務の効率化と魅力的な授業内容のブレインストーミングを通じて、教師の時間を週平均10時間節約したとされています。
時間節約を超えて、Eediの最近の探索的ランダム化比較試験(RCT)では、英国の生徒を対象にした結果、AIツールを使用する教師の指導を受けた生徒は、使用しない教師の指導を受けた生徒と比較して、後続トピックの新しい問題を解く可能性が5.5パーセントポイント高いことが示されました。
この影響を英国全体でさらに拡大するため、Google DeepMindは厳格な科学的アプローチを通じてAIツールが教育と学習に与える影響を理解するための研究を支援し、LearnLMの取り組みを活用したGeminiモデルをイングランドの国家カリキュラムに合わせて調整する方法を検討しています。
目標は、最先端の教育体験を提供すると同時に、教育者の業務負担を軽減し、学習者の成長を支援するという教師の本来の役割に集中できる時間を増やすことです。
ランダム化比較試験は、医療分野などで用いられる科学的に厳格な評価手法であり、教育分野でもこの手法を用いることで、AIツールの効果をより客観的に測定できると考えられます。
公共サービスの近代化
AIは、より効果的で効率的な公共サービスの構築を支援する大きな可能性を持つとされています。Google DeepMindは政府チームと直接協力し、公共サービスを再構想して市民により良いサービスを提供するために必要な技術的専門知識とフロンティアモデルへのアクセスを確保しています。
英国政府のAI Incubatorチーム(i.AI)は現在、Extractというツールを試験運用しています。Extractは、Geminiを使用して古い計画文書を明確なデジタルデータに変換する、地方議会の計画担当者向けツールです。現在、単一の計画文書の変換には最大2時間かかりますが、Extractはこれらをわずか40秒でデジタルデータに変換し、意思決定のタイムラインを大幅に短縮します。
計画文書のデジタル化は一例ですが、同様のアプローチは他の行政プロセスにも適用できる可能性があり、公共サービス全体の効率化につながると考えられます。
国家安全保障とサイバーレジリエンス
パートナーシップには、AISIとの説明可能性、アラインメント、社会的影響に関する重要な安全性研究のより深い協力も含まれます。これらのリスクをよりよく理解し、軽減することを目指しています。
AIは、セキュリティリスクに対する強力な防御手段にもなり得るとされています。Google DeepMindは英国政府と協力して、国家サイバーレジリエンスに対するAI強化アプローチを推進し、Big SleepやCodeMenderなどのツールを使用して脆弱性を特定し、コードを自動的に修正することで、より安全な未来を実現することを模索しています。
Big SleepとCodeMenderは、ソフトウェアのセキュリティ脆弱性を検出・修正するためのAIツールです。従来、セキュリティ専門家による手動の検査が必要だったプロセスを自動化することで、より迅速かつ包括的なセキュリティ対策が可能になると考えられます。
Frontier Model Forumなどとの連携
Google DeepMindは、Frontier Model Forumの創設メンバーであり、Partnership on AIのメンバーでもあります。これらの組織では、フロンティアAIモデルの安全で責任ある開発の確保と、重要な安全性問題に関する協力の強化に焦点を当てています。
また、Apollo Research、Vaultis、Dreadnodeなどの他の外部専門家とも提携し、Gemini 3を含むモデルの広範なテストと評価を実施しています。Gemini 3は、これまでで最も知的で安全なモデルとされています。
さらに、Google DeepMindのResponsibility and Safety Councilは、チーム間で協力して新たなリスクを監視し、倫理と安全性の評価をレビューし、関連する技術的および政策的緩和策を実施しています。
まとめ
Google DeepMindと英国政府・AISIとの拡大されたパートナーシップは、AI安全性研究、科学的発見の加速、教育の強化、公共サービスの近代化、国家安全保障の向上という包括的な取り組みです。2026年の自動化研究所設立や、複数の重点研究領域での協力は、AIの恩恵を社会に広く還元しながらリスクを軽減するというアプローチを具体化したものと言えます。この英国との協力モデルが、他国におけるAI政策と産業界の協力の青写真となるかもしれません。
