[技術紹介]AIが聞き分ける生命の音:Google「Perch」が拓く生物音響学と絶滅危惧種保護の未来

目次

はじめに

 本稿では、Google DeepMindが発表したブログ記事「How AI is helping advance the science of bioacoustics to save endangered species」をもとに、AI技術が動物たちの声を分析して生態系を守る「生物音響学」の分野でどのように活用されているかを解説します。

参考記事

GitHub

要点

  • Googleは、生物の音声データ(生物音響データ)を分析し、絶滅危惧種を保護するためのAIモデル「Perch」の最新版を公開した。
  • 新モデルは、鳥類だけでなく哺乳類や水中生物など、より広範な種の音声を高精度で識別可能である。
  • 専門家が少量のサンプルから短時間で高精度な分類器を構築できる「アジャイルモデリング」という手法が技術的な核心である。
  • このモデルと関連ツールはオープンソースとして公開されており、誰でも研究や保護活動に利用できる。

詳細解説

生物音響学とは? – 声から生態系を読み解く科学

 まず、本稿のテーマである生物音響学(バイオアコースティクス)について説明します。これは、動物が発する鳴き声、羽音、移動音などをマイクで録音・分析し、その地域の生物の多様性、個体数、行動パターンなどを解明する学問分野です。人間が直接観察するのが難しい夜間や、広大な森林、深い海中などでも、音を頼りに24時間体制でモニタリングできるため、生態系全体の健全性を評価する上で非常に有効な手段とされています。

 しかし、この手法には大きな課題がありました。それは、録音されるデータがあまりにも膨大であるため、人間がすべてを聞いて分析するには、途方もない時間と労力がかかってしまうという点です。

AIモデル「Perch」がもたらす変化

 この「膨大なデータの解析」という課題を解決するために開発されたのが、GoogleのAIモデル「Perch」です。Perchは、録音された音声データの中から、特定の動物の声を自動で識別し、分類することができます。

 2025年8月に発表された最新版のPerchは、従来モデルから大幅に性能が向上しました。学習に使われたデータ量は約2倍に増え、鳥類だけでなく、クジラのような海洋哺乳類、カエルなどの両生類、さらには人間活動による騒音(人工音)まで識別できるようになりました。これにより、陸上から水中まで、より複雑で多様な生態系の分析が可能になります

 実際に、ハワイの絶滅危惧種であるミツスイの保護活動では、Perchを活用することで従来の手法より50倍も速く鳴き声を発見できたという成果が報告されており、保護活動の効率を大きく向上させています。

技術的な核心:「アジャイルモデリング」

 Perchの真価は、単に多種類の音声を識別できる点に留まりません。最も重要なのは、「アジャイルモデリング」という、専門家が迅速に独自の音声分類器を作成できる効率的な手法を可能にする点にあります。これは、以下の3つのステップで構成されます。

  • ステップ1: 音声の「指紋」化(埋め込み)
     Perchはまず、膨大な音声データを「埋め込み(Embedding)」と呼ばれる数値の集まり(ベクトル)に変換します。これは、音の周波数やリズムといった特徴を捉えた、いわば音の「意味的な指紋」のようなものです。
  • ステップ2: 似た音を探す(ベクトル検索)
     研究者が探したい音、例えば「特定の鳥の珍しい鳴き声」の音声サンプルをPerchに与えると、Perchはデータベースの中から、その音と「指紋」が似ている音を瞬時に探し出します。
  • ステップ3: AIに教える(能動学習)
     次に、研究者は探し出された音声が本当に探しているものかを判断し、「正しい」「間違い」といったラベルを付けます。Perchは、この人間からのフィードバックを元に学習(能動学習)し、その特定の音だけを識別するための専用の分類器を自動で構築します。

 この一連のプロセスにより、これまで数週間から数ヶ月かかっていた新しい分類器の作成が、わずか1時間程度で可能になるケースもあると報告されています。これにより、未知の鳴き声や希少な種の音声を、素早く効率的に分析対象とすることができるのです。

誰でも利用可能に – オープンソースとしての公開

 Googleは、この最新のPerchモデルと、アジャイルモデリングを実現するための一連のツール群「Hoplite」を、オープンソースとしてGitHub上で公開しています。これは、世界中の研究者や自然保護団体が、資金力に関わらず最新のAI技術の恩恵を受けられるようにするためです。

 公開されているリポジトリには、Pythonで書かれたプログラムと、Jupyter Notebook形式のサンプルコードが含まれています。具体的には、以下の2つのノートブックを実行することで、誰でも手持ちの音声データを使ってアジャイルモデリングのプロセスを試すことができます。

  • agile/1_embed_audio_v2.ipynb: 手持ちの音声ファイルをPerchモデルで処理し、埋め込み(ベクトルのデータベース)を作成します。
  • agile/2_agile_modeling_v2.ipynb: 作成した埋め込みを使い、ベクトル検索、ラベル付け、分類器の訓練といったアジャイルモデリングの全工程を実行します。

 これらのツールを活用することで、各地域の研究者が、その土地固有の種に対応した独自の分析システムを構築することが可能になります。

まとめ

 本稿では、GoogleのAIモデル「Perch」が、生物音響学の分野に大きな進歩をもたらしていることを紹介しました。膨大な音声データを高速かつ高精度に分析する能力、そして専門家が短時間で独自の分類器を作成できる「アジャイルモデリング」という手法は、生物多様性のモニタリングと絶滅危惧種の保護活動を大きく前進させる可能性を秘めています。

 最先端のAI技術がオープンソースとして公開され、世界中の研究者や保護活動家の手に渡ることで、AIと人間の専門知識が協働し、地球の豊かな生態系を未来に残すための新たな道が拓かれています。

この記事が気に入ったら
フォローしてね!

  • URLをコピーしました!
  • URLをコピーしました!
目次