[Google I/O 2025]Google Researchの挑戦:AIによる社会課題解決の今

はじめに

 本稿では、2025年5月22日にGoogle Researchが発表したブログ記事「Google Research at Google I/O 2025」を基に、Google I/O 2025で特に注目された研究成果と、それらが私たちの生活や社会にどのような影響を与える可能性があるのかを解説します。

引用元記事

目次

要点

  • Google I/O 2025では、Google Researchによる長年の研究成果が、Geminiモデルや生成AI製品として結実し、実社会への応用が進んでいることが示された。
  • ヘルスケア分野では、マルチモーダル医療テキスト・画像理解のためのオープンモデルMedGemmaや、診断会話AIエージェントAMIEが発表され、医療のアクセス性と効果向上への貢献が期待される。
  • 教育分野では、学習に特化したAIモデル群LearnLMがGemini 2.5に搭載され、個別最適化された学習体験の提供を目指す。
  • オープンモデルGemmaは、140以上の言語に対応し、オンデバイスでの利用も可能なGemma3nが登場するなど、多言語性と効率性が向上した。
  • 検索体験を向上させるAI Mode in Searchでは、モデルの効率性と事実整合性の研究成果が活用されている。
  • Imagen4Gemini 2.5、VidsのAIアバターにおいて、マルチモーダルコンテンツの事実整合性向上のための研究が進んでいる。
  • 質問やアイデアをアニメーション動画に変換するSparkify、早期山火事検知システムFireSat、実用化が期待されるQuantum AI、科学的発見を加速するAI Co-Scientistなど、多岐にわたる分野での応用研究が紹介された。

詳細解説

 Google I/O 2025では、Google Researchが長年にわたり取り組んできたAI研究の成果が、具体的な製品やサービスへと結びつき、私たちの生活をより豊かに、そして社会の課題解決に貢献する可能性が示されました。ここでは、特に注目すべき技術やプロジェクトについて、その背景や日本の読者の皆様にとっての意義を交えながら詳しく解説します。

ヘルスケア分野におけるAIの進化:MedGemmaとAMIE

 医療分野におけるAIの活用は、診断支援、治療法の開発、医療アクセスの向上など、多岐にわたる可能性を秘めています。Google Researchは、2022年のMed-PaLM発表以来、この分野でのAI研究を継続的に進めてきました。

  • MedGemma:
    • 今回発表されたMedGemmaは、医療用のテキストと画像を理解できるマルチモーダルAIのオープンモデルです。オープンモデルとは、その設計やソースコードが公開されており、誰でも利用・改良できるモデルのことを指します。
    • MedGemmaは、Googleの最新基盤モデルであるGemma 3をベースに開発されており、放射線画像の分析や臨床データの要約といったヘルスケアアプリケーション開発の出発点となることが期待されています。
    • 特筆すべきは、そのコンパクトさです。モデルのサイズが小さいことで、特定のニーズに合わせたファインチューニング(追加学習による調整)が効率的に行えます。臨床知識や推論能力を評価するMedQAベンチマークにおいては、より大規模なモデルと同等の性能を示しています。
    • オープンであるため、開発者はGoogle Cloud Platform上だけでなく、ローカル環境でも実行可能です。MedGemma 4Bと27B(テキストのみ)のモデルが、HuggingFaceやVertex Model Gardenで利用可能になっています。
  • AMIE (Articulate Medical Intelligence Explorer):
    • Google DeepMindとの共同開発によるAMIEは、医療診断における会話型AIエージェントです。今回のI/Oでは、視覚的な医療情報を解釈し推論できる新しいマルチモーダル版が紹介されました。
    • これにより、医師がより正確な診断を下すための支援が期待されます。例えば、患者が提示する画像情報(発疹の写真など)をAIが理解し、関連する質問を生成したり、考えられる疾患の可能性を提示したりすることが可能になるかもしれません。

学習を革新するAI:LearnLM

 教育分野においても、AIは個別最適化された学習体験の提供や、教育者の負担軽減に貢献すると期待されています。

  • LearnLM:
    • Google Researchは、教育専門家と協力し、約2年間にわたり学習に特化したAIモデル群LearnLMを開発してきました。
    • I/O 2025では、このLearnLMがGemini 2.5に直接搭載されることが発表されました。これにより、Gemini 2.5は学習分野において世界をリードするモデルとなることを目指しています。
    • 最新の技術レポートによると、Gemini 2.5 Proは学習科学の原則に関する理解度で他のモデルを上回り、教育者からも高い評価を得ています。高度なSTEM(科学・技術・工学・数学)分野の推論能力、マルチモーダル理解、クイズ作成・評価機能などを備えています。

より身近になるAI:Gemmaの多言語対応と効率化

 AI技術が真に役立つためには、誰もが利用しやすく、多様な言語に対応していることが重要です。

  • Gemmaの進化:
    • Googleが2ヶ月前に発表したオープンモデルGemma3は、140以上の言語に対応し、現在最も優れた多言語オープンモデルとなっています。
    • 今回のI/Oでは、Gemmaファミリーに新たにGemma3nが加わりました。このモデルは、わずか2GBのRAMでも動作可能で、スマートフォンなどのオンデバイスアプリケーション向けに設計されています。
    • 効率化への取り組みにより、Gemma3nは応答速度の向上とエネルギー消費量の削減を実現しています。

検索体験の向上:AI Mode in Search

 Google検索は、私たちが情報を得る上で不可欠なツールですが、AIの力でその体験がさらに進化しようとしています。

  • AI Mode in Search:
    • I/Oで発表されたAI Modeは、高度な推論能力を備えたGoogleの最も強力なAI検索機能です。米国で全ユーザーに展開され、追加の質問をしたり、関連サイトへのリンクを参照したりしながら、より深い調査を行うことができます。
    • Google Researchは、モデルの効率性向上(投機的デコーディングやカスケードなど)や、事実整合性に関する技術(ダブルチェック機能やFACTS Groundingリーダーボードなど)の研究を通じて、このAI Modeの実現に貢献しています。

マルチモーダルコンテンツの信頼性向上

 画像、動画、音声といった多様な形式の情報を組み合わせたマルチモーダルコンテンツが普及する中で、その情報の正確性や信頼性を確保することは非常に重要です。

  • Imagen4、Gemini 2.5、VidsのAIアバターへの貢献:
    • Google Researchのファクチュアリティ(事実整合性)チームは、マルチモーダルコンテンツの事実整合性向上に取り組んでいます。
    • I/Oで発表された最新の画像生成モデルImagen4(Geminiアプリに搭載)では、より実物に近い詳細なビジュアル表現が可能になりました。
    • また、ユーザーが選択したAIアバターで簡単に動画コンテンツを作成できる新機能Vidsにおいては、モデルの品質や画像キャプションの評価に貢献しました。
    • Gemini 2.5の動画理解能力も大幅に向上し、特に人間の動きの理解に優れ、健康・フィットネス分野での動作評価などへの応用が期待されます。

その他の注目すべき研究開発

 上記以外にも、Google I/O 2025では、Google Researchによる多様な分野での先進的な取り組みが紹介されました。

  • Sparkify: ユーザーが質問やアイデアを入力すると、Gemini、MusicLM、AudioLM、VeoといったAIモデルを組み合わせて、選択したデザインスタイルで短いアニメーション動画を生成する実験的プロジェクトです。
  • FireSat: 地球観測衛星とAIを活用し、より早期かつ正確に世界の山火事を検知するためのシステムです。すでに50基以上の衛星コンステレーションの最初の1基が打ち上げられています。
  • Quantum AI: 量子コンピューティングは、創薬やエネルギー効率の分野で革命をもたらす可能性を秘めており、Google Researchはその実用化に向けた研究開発を進めています。Willowチップや量子エラー訂正における進捗が紹介されました。
  • AI Co-Scientist: Geminiをベースとしたマルチエージェントシステムで、科学者が新しい仮説を立てたり、研究提案を作成したりするのを支援し、生物医学分野などの発見を加速することを目指しています。

 これらの研究は、AIが単なる情報処理ツールを超え、創造性、防災、基礎科学といった領域でも大きな役割を果たす可能性を示唆しています。

まとめ

 本稿では、Google I/O 2025で発表されたGoogle Researchの主要な成果について解説しました。MedGemmaAMIEによるヘルスケアの進化、LearnLMによる教育の革新、Gemmaの多言語化と効率化、そしてAI Mode in Searchによる検索体験の向上など、AI技術は目覚ましいスピードで発展し、私たちの生活のあらゆる側面に影響を与えようとしています。

 特に、オープンモデルの推進や、オンデバイスAIへの注力は、より多くの開発者やユーザーがAI技術の恩恵を受けられるようにするための重要な動きと言えるでしょう。また、マルチモーダルAIの進化は、テキストだけでなく、画像、音声、動画といった多様な情報をAIが統合的に理解し、より高度なタスクを実行できるようになることを意味します。

 Google Researchの取り組みは、AIが単に便利なツールであるだけでなく、医療、教育、科学研究といった専門分野においても、人間の能力を拡張し、これまで解決が困難だった課題に取り組むための強力なパートナーとなり得ることを示しています。事実整合性への強いコミットメントも、AI技術の責任ある発展にとって不可欠な要素です。

 今後、これらの技術がどのように社会実装され、私たちの未来を形作っていくのか、引き続き注目していく必要があります。

この記事が気に入ったら
フォローしてね!

  • URLをコピーしました!
  • URLをコピーしました!
目次