[ニュース解説]GoogleがAIを活用したアクセシビリティ向上機能を発表:AndroidとChromeの最新機能で誰もが使いやすい未来へ

目次

はじめに

 Googleが新たにAIとアクセシビリティに関する最新の取り組みについて、発表しました。特に、AndroidおよびChromeにおける新機能や、音声認識技術の進化、教育現場でのアクセシビリティ向上策などに焦点があてられています。
 Googleの公式ブログ記事「New AI and accessibility updates across Android, Chrome and more」をもとに発表内容を紹介します。

引用元記事

・本稿中の画像に関しては特に明示がない場合、引用元記事より引用しております。
・記載されている情報は、投稿日までに確認された内容となります。正確な情報に関しては、各種公式HPを参照するようお願い致します。
・内容に関してはあくまで執筆者の認識であり、誤っている場合があります。引用元記事を確認するようお願い致します。

要点

  • Googleは、GAAD(Global Accessibility Awareness Day)に合わせ、AIを活用したアクセシビリティ機能をAndroidとChromeに多数導入した。
  • Androidでは、TalkBackとGeminiの連携が強化され、画像や画面全体に関する詳細な情報の取得や質問応答が可能になった。また、Expressive Captionsでは、音声の抑揚や多様な音のラベルが追加された。
  • 音声認識技術向上のため、Project Euphoniaを通じて開発者向けリソースが提供され、アフリカ言語を含む多様な言語への対応が進められている。
  • 学生向けには、Chromebookで利用できるCollege Boardのテストアプリにおいて、Googleの組み込みアクセシビリティ機能が利用可能になった。
  • Chromeブラウザでは、スキャンされたPDFのテキスト認識機能(OCR)が向上し、スクリーンリーダーでの利用が容易になった。さらに、Android版Chromeにもページズーム機能が導入された。

詳細解説

AndroidにおけるAIを活用したアクセシビリティの進化

 Googleは、視覚や聴覚に困難を抱えるユーザーのために、AI、特にGeminiモデルをAndroidの中核的なモバイル体験に統合し、アクセシビリティを大幅に向上させています。

  • TalkBackとGeminiによる画像・画面理解の深化
    • AndroidのスクリーンリーダーであるTalkBackは、昨年Geminiの能力を取り込み、代替テキストがない画像でもAIが生成する説明を提供できるようになりました。今回のアップデートでは、この連携がさらに強化され、ユーザーは画像の内容について質問し、詳細な回答を得られるようになりました。例えば、友人が送ってきた新しいギターの写真について、そのメーカーや色、あるいは背景に写っている他の物について尋ねることができます。
    • さらに、この機能は画面全体に対しても適用されます。例えば、ショッピングアプリでセール情報を閲覧中に、商品の素材や割引の有無などをGeminiに尋ねることができるようになります。これにより、視覚情報へのアクセスが格段に向上します。
  • Expressive Captionsによる感情表現の理解向上
    • Expressive Captionsは、AIを利用して、スマートフォン上のあらゆるアプリの音声に対してリアルタイムで字幕を生成する機能です。この機能は、単に「何を言っているか」だけでなく、「どのように言っているか」も捉えることを目指しています。
    • 今回のアップデートでは、言葉の長さを表現する新機能が追加されました。これにより、スポーツ実況者が「アメーージングなショット!」と叫んでいるのか、あるいはビデオメッセージが単なる「ノー」ではなく「ノーーーーー」と否定を強調しているのかを、字幕から理解できるようになります。
    • また、口笛や咳払いといった、より多くの種類の音に対するラベルも追加され、音声情報から得られる文脈が豊かになります。この新バージョンは、Android 15以降を搭載したデバイス向けに、米国、英国、カナダ、オーストラリアで英語で提供が開始されます。

世界の音声認識技術の改善に向けた取り組み (Project Euphonia)

 2019年に開始されたProject Euphoniaは、標準的でない発話をする人々のために音声認識をよりアクセスしやすくする方法を模索してきました。Googleは現在、この取り組みをさらに多くの言語や文化的背景に広げるため、世界中の開発者や組織を支援しています。

  • 開発者向け新リソースの提供
    • Googleは、Project EuphoniaのGitHubページを通じて、オープンソースのリポジトリを開発者に提供しています。これにより、開発者は研究目的でパーソナライズされた音声ツールを開発したり、多様な発話パターンに対応するモデルを訓練したりすることが可能になります。これは、アクセシビリティ技術のエコシステム全体の向上に貢献します。
  • アフリカにおける新規プロジェクト支援
    • Google.orgは、ユニバーシティ・カレッジ・ロンドン(UCL)によるCentre for Digital Language Inclusion (CDLI) の設立を支援しました。CDLIは、アフリカの非英語話者のための音声認識技術の改善に取り組んでおり、アフリカの10言語におけるオープンソースデータセットの作成や、新しい音声認識モデルの構築、関連する組織や開発者のエコシステム支援を継続しています。

学生向けアクセシビリティオプションの拡充

 アクセシビリティツールは、障害のある学生にとって特に有用です。Googleは、Chromebookで顔のジェスチャーを使って操作できる「フェイスコントロール」や、読書体験をカスタマイズできる「リーディングモード」などを提供してきました。

  • College Boardのテストアプリとの連携強化
    • 今回、学生がSAT(大学進学適性試験)や多くのAP(アドバンスト・プレースメント)試験を受験する際に使用するCollege BoardのBluebookテストアプリで、Googleの組み込みアクセシビリティ機能がすべて利用可能になりました。これには、ChromeVoxスクリーンリーダーや音声入力機能が含まれ、College Board独自のデジタルテストツールと併用できます。これにより、試験における情報アクセスや操作のバリアが軽減されます。

Chromeブラウザのアクセシビリティ向上

 毎日20億人以上が利用するChromeブラウザにおいて、Googleは常に使いやすさとアクセシビリティの向上に努めています。ライブキャプションやスクリーンリーダーユーザー向けの画像説明といった機能はその一例です。

  • ChromeでのPDFアクセシビリティの向上
    • これまで、デスクトップ版ChromeブラウザでスキャンされたPDFを開いた場合、スクリーンリーダーでその内容を操作することは困難でした。今回のアップデートにより、Chromeは光学文字認識(OCR)技術を用いてこれらのPDFを自動的に認識するようになりました。その結果、ユーザーは他のウェブページと同様にテキストをハイライトしたり、コピーしたり、検索したりでき、スクリーンリーダーで読み上げることも可能になります。これは、情報アクセスの大きな改善と言えるでしょう。
  • ページズーム機能による快適な閲覧体験 (Android版Chrome)
    • Chromeデスクトップ版で提供されていたページズーム機能が、Android版Chromeでも利用可能になりました。この機能を使うと、ウェブページのレイアウトやブラウジング体験に影響を与えることなく、表示されるテキストのサイズを拡大できます。ズームレベルは、訪問するすべてのページに適用することも、特定のページだけに適用することも可能です。
    • この機能を利用するには、Chromeの右上にある3点メニューをタップし、ズーム設定を行います。これにより、視覚的な調整が必要なユーザーにとって、モバイルでのウェブ閲覧がより快適になります。

まとめ

 本稿では、Googleが発表したAndroidおよびChromeにおけるAIを活用したアクセシビリティの最新アップデートについて解説しました。TalkBackとGeminiの連携強化による画像・画面理解の深化、Expressive Captionsによる感情表現の理解向上、Project Euphoniaを通じた音声認識技術のグローバルな改善、学生向けアクセシビリティオプションの拡充、そしてChromeブラウザにおけるPDFアクセシビリティの向上やページズーム機能の導入など、多岐にわたる改善が行われています。

  • URLをコピーしました!
  • URLをコピーしました!

コメント

コメントする

目次