[レポート解説]2025年AIトレンド:これまでとこれから

目次

はじめに

 本稿では、2025年におけるAI(人工知能)の最新トレンドについて、IBMが発行した記事「AI trends in 2025: What we’ve seen and what we’ll see next」を基に解説します。

引用元記事

要点

  • 推論コストの劇的な低下: AIモデルの運用コストが大幅に下がり、より多くの応用が可能になっている。
  • より合理的な推論モデルの登場: 単純な応答生成だけでなく、より複雑な「思考プロセス」を経るAIモデルが実用化されつつあるが、その効率性が重視されている。
  • デジタルリソースへの負担増: AI開発のためのデータ収集が、Wikipediaのようなオープンソースの知識基盤に大きな負荷をかけている。
  • MoE(Mixture of Experts)モデルの再来: 複数の専門家(小規模モデル)を組み合わせることで、効率と性能を両立するMoEアーキテクチャが再び注目されている。
  • AIの行動はAIの言説に遅れ: AI導入の期待は高いものの、実際の組織への実装や効果的な活用は、語られるほど進んでいない側面がある。
  • ベンチマークの飽和と多様化: 従来のAI性能評価指標が限界を迎え、より多様で実践的な評価方法が求められている。
  • Transformerモデルを超える動き: 現在主流のTransformerアーキテクチャの限界を克服する新しいモデル(Mambaなど)が登場し、注目を集めている。
  • 具現化されたAI、ロボティクス、ワールドモデル: AIがテキストや画像の世界を飛び出し、物理世界で活動するロボットや、現実世界をシミュレートする「ワールドモデル」の研究が進んでいる。
  • プライバシー vs. パーソナライゼーション: AIが個人に最適化されればされるほど、プライバシー保護との両立が大きな課題となる。
  • AIの同僚と感情的な影響: AIが「同僚」や「友人」のような存在になる可能性があり、それが人々の感情や社会に与える影響について考慮が必要である。

詳細解説

2025年前半に見られたAIトレンド

1. 推論コストの劇的な低下

 AIモデル、特に大規模言語モデル(LLM)を実際に運用する際のコスト、いわゆる推論コストが劇的に低下しています。これは、より少ない計算資源で同等以上の性能を発揮できるアルゴリズムの改善が主な要因です。例えば、IBMの記事によれば、ある研究ではアルゴリズムの効率が年間約400%改善していると推定されており、これは1年前と同じ結果を出すのに必要な計算量が4分の1になることを意味します。

 具体例として、かつて1.8兆パラメータを持つと噂されたGPT-4は、コーディング性能のベンチマークであるHumanEvalで67%のスコアでしたが、その2年後にリリースされた900分の1のサイズのIBM Granite 3.3 2B Instructは80.5%のスコアを達成しました。

 このコスト効率の飛躍的な向上は、AIエージェント(自律的にタスクを計画・実行するAIシステム)のような、複数のAIモデルが連携して複雑なタスクをこなすシステムの実現を後押ししています。

2. より合理的な推論モデル

 AIモデルが単に答えを出すだけでなく、その答えに至るまでの「思考プロセス」や「論理的な意思決定」をより重視する「推論モデル」が登場し、注目を集めました。OpenAIの「o1」モデルなどがその火付け役となり、高度な数学やコーディングのベンチマークで高い性能を示しました。

 これらのモデルは、推論時により多くの計算資源を使って長く複雑な思考の連鎖(Chain-of-Thought: CoT)を生成することで性能を高めます。しかし、これは同時により多くのコストと時間(遅延)を伴うことを意味します。

 そこで現在は、必要な時だけ「思考モード」をオンにできる「ハイブリッド推論モデル」が実用化されています。IBMのGranite 3.2やAnthropicのClaude 3.7 Sonnet、GoogleのGemini 2.5 Flashなどが、この機能を搭載しています。これにより、ユーザーはタスクに応じて効率性と高度な推論能力を使い分けられるようになります。

 一方で、推論モデルが生成する「思考の痕跡」が実際に結果にどれだけ寄与しているのか、またそれがモデル内部の真の思考プロセスを反映しているのかについては、まだ研究が進められている段階です。

3. デジタルリソースへの負担増

 AIモデルの開発、特に学習データの収集において、WikipediaやGitHubのようなオープンソースの知識リポジトリへの依存度が高まっています。しかし、AI開発企業による大規模なデータ収集(スクレイピング)は、これらのリポジトリのインフラに深刻な負荷をかけています。

 Wikimedia Foundationによると、2024年1月以降、Wikimediaのマルチメディアコンテンツのダウンロードに使われる帯域幅が50%も増加したとのことです。問題はトラフィックの量だけでなく、その質にもあります。人間ユーザーの閲覧行動はある程度予測可能でキャッシュ戦略も有効ですが、AIボットは人気のないページも含めて無差別にクロールするため、データセンターに直接的な負荷がかかりやすくなります。

 一部のAI企業は、ウェブサイトのrobots.txt(ボットのアクセス制御ルール)を無視したり、有料コンテンツの壁を回避したりしてデータを収集しているとの非難も受けています。これに対し、オープンソースプロジェクト側も、ボットに計算パズルを解かせる「Anubis」や、AIクローラーを無限の迷路に誘い込む「Nepenthes」のような対抗策を講じ始めています。

 商業的なAI開発とオープンな知識リポジトリが、互いに持続可能な形で協力できるかどうかが、今後のAIとインターネット全体の未来に大きな影響を与えるでしょう。

4. MoE(Mixture of Experts)モデルの再来

 MoE(Mixture of Experts)モデルは、複数の比較的小さな「専門家」モデル(エキスパート)と、入力に応じてどのエキスパートを使うかを決定する「ゲート」モデルを組み合わせたアーキテクチャです。この概念自体は1991年から存在していましたが、2023年末にMistral AIが「Mixtral」モデルをリリースしたことで、再び大きな注目を集めました。

 MoEモデルは、入力の一部に対して関連するエキスパートのみを活性化させるため、モデル全体のパラメータ数が大きくても、推論時の計算コストを抑えられるという利点があります(これをスパース活性化と呼びます)。DeepSeek-R1のようなモデルが、MoEアーキテクチャでも最先端の性能と計算効率を両立できることを示したことで、業界の関心が一気に高まりました。

 現在では、MetaのLlama 4、AlibabaのQwen3、IBMのGranite 4.0など、多くの次世代モデルがMoEアーキテクチャを採用しています。今後、AIモデルの性能がある程度コモディティ化するにつれて、MoEモデルが提供する推論速度と効率の重要性がさらに増すと考えられます。

5. AIの行動はAIの言説に遅れをとっている

 AI技術の急速な進歩に対する期待は非常に高いものの、実際のビジネス現場でのAI導入や効果的な活用は、語られているほどのスピードでは進んでいないのが現状です。多くの企業リーダーがAI導入に意欲的である一方で、自社のITインフラがAIを大規模に展開する準備ができていないことに気づかされています。

 また、AIは退屈な反復作業を代替し、人間はより創造的な思考に集中できるようになる、という見方が一般的ですが、IBM Institute for Business Value (IBV) の調査によると、小売業界のコンテンツサプライチェーンでは、むしろ「創造的なアイデア出し/コンセプト作成」(88%)や「コンテンツ作成・編集」(74%)といった分野で生成AIが活用されている一方で、「チャネルごとのコンテンツバリエーション生成」(23%)や「地域ごとのコンテンツバリエーション生成」(10%)といった、より定型的な作業での活用は限定的でした。

 これは、AI導入が単純な直線的なプロセスではなく、実験段階から本格的な運用への移行には多くの課題が伴うことを示しています。

2025年後半以降に予測されるAIトレンド

1. ベンチマークの飽和と多様化

 AIモデルの性能を測るための標準的なベンチマークが飽和状態になりつつあり、その有効性に疑問が投げかけられています。特定のベンチマークで高得点を取るためにモデルが過剰に最適化されたり(Goodhartの法則)、ベンチマークのデータセット自体がモデルの学習データにリークしてしまったりする問題が指摘されています。

 Hugging FaceのOpen LLM Leaderboardは、かつて業界標準のベンチマークセットを提供していましたが、2025年3月に廃止されました。これは、モデルの用途が多様化し、単一の基準では評価が難しくなったことを反映しています。

 今後は、以下のような動きが加速すると考えられます。

  • コーディングや数学など、特定ドメインに特化したモデルは、そのドメインに関連する評価指標のみを重視する。
  • マルチモーダルAIモデル(テキスト、画像、音声など複数の種類のデータを扱えるAI)は、テキスト以外の性能も示す必要がある。
  • Chatbot Arenaのような定性的な比較方法も利用されるが、その公平性やバイアスについても議論がある。
     最終的には、企業や組織が自らのユースケースに最も適した独自のベンチマークを開発・利用することが最善の方法となるでしょう。

2. Transformerモデルを超える動き

 2017年に登場して以来、現在の生成AI時代を牽引してきたTransformerアーキテクチャですが、その計算上の課題も明らかになっています。特に、コンテキスト長(扱える情報の長さ)が2倍になると、計算量が4倍になるという「二次的なボトルネック」は、長いシーケンスを扱う際の速度と効率を制限します。

 この課題を克服する可能性のある新しいアーキテクチャとして、Mamba(状態空間モデルの一種)が注目されています。Mambaは、コンテキスト長に対して計算量が線形にスケールするため、特に長いシーケンスの扱いに優れています。Transformerがすべてのトークンに注意を払い続けるのに対し、Mambaは重要なトークンのみを選択的に保持することで効率性を高めます。

 将来的には、TransformerとMambaのハイブリッドモデルが主流になる可能性も指摘されています。Mistral AIのCodestral MambaやAI2IのJambaシリーズ、そしてIBMのGranite 4.0シリーズなどが、Mambaまたはハイブリッドアーキテクチャを採用しています。これらのモデルは、ハードウェア要件を低減し、AIへのアクセスをさらに民主化する可能性があります。

3. 具現化されたAI、ロボティクス、ワールドモデル

 AIの進化は、テキストや画像のデジタルな世界を超え、物理世界で活動するAIへと向かっています。この分野は「具現化されたAI(Embodied AI)」と呼ばれ、高度な生成AIを搭載したヒューマノイドロボット開発に多くの投資が集まっています。Skild AI、Physical Intelligence、1X Technologiesなどがその例です。

 もう一つの重要な流れが「ワールドモデル」の研究です。これは、言語や画像といった間接的な情報を通じてではなく、現実世界の相互作用を直接的かつ包括的にモデル化しようとする試みです。スタンフォード大学のフェイフェイ・リ氏(ImageNetデータセットで知られる)が率いるWorld Labsなどがこの分野をリードしています。

 MetaのチーフAIサイエンティストであるヤン・ルカン氏など、多くの専門家は、AGI(汎用人工知能)への道はLLMではなくワールドモデルにあると考えています。これは、複雑な推論はAIにとって比較的容易である一方、子供でも簡単にできる単純な感覚運動や知覚タスクは非常に難しいという「モラベックのパラドックス」に基づいています。

 AIをロボットに搭載し、乳幼児に物を教えるように概念を学習させる研究も進められています。

4. プライバシー vs. パーソナライゼーション

 AIエージェントが真に役立つためには、個々のユーザーや状況に合わせて高度にパーソナライズされる必要があります。そのためには、AIが過去の対話履歴やその結果を広範に記憶し、学習し続ける必要があります。

 しかし、このような永続的な記憶の収集と保持は、デジタルプライバシーの基本原則と衝突する可能性があります。特に、クラウド上で運用されるクローズドなモデルの場合、この問題はより深刻になります。

 例えば、OpenAIはChatGPTがすべての会話を自動的に記憶する機能を発表しましたが、EUや英国など、既存のプライバシー法やAI規制が厳しい地域では提供されていません。これは、GDPR(一般データ保護規則)の「忘れられる権利」のような概念と、モデルが個人との対話データを保存し、さらなる学習に利用するという考え方が両立しにくいことを示唆しています。

 AIによる高度なパーソナライゼーションの便益と、個人のプライバシー保護をいかに両立させるかは、今後の大きな課題です。

5. AIの同僚と感情的な影響

 AI、特にAIエージェントは、ますます個人的な存在になりつつあります。Microsoft AIのCEOは「すべての人にAIコンパニオンを」という目標を掲げ、MetaのCEOは「AIフレンド」が孤独の問題を解決する可能性を示唆しています。多くのスタートアップが「AIの同僚」を開発しています。

 しかし、人間は歴史的に、初期の単純なチャットボットに対しても感情的な愛着を抱きやすい傾向があります。パーソナライズされたAIと日常的に対話する人が増えるにつれ、AIに対する感情的な依存のリスクは複雑かつ重大なものとなり、避けることが難しくなるでしょう。

 AIが技術的・経済的な影響を超えて、人々の心理や社会全体にどのような影響を与えるのか、慎重に検討していく必要があります。

まとめ

 本稿では、IBMの記事「AI trends in 2025: What we’ve seen and what we’ll see next」を基に、2025年のAIトレンドについて解説しました。

 2025年前半には、推論コストの劇的な低下、より合理的な推論モデルの登場、デジタルリソースへの負担増、MoEモデルの再来、そしてAIの言説と実際の行動の間のギャップといった動きが見られました。

 後半以降は、ベンチマークの飽和と多様化、Transformerモデルを超える新しいアーキテクチャの台頭、物理世界で活動する具現化されたAIやワールドモデルの進展、プライバシーとパーソナライゼーションの間の緊張、そしてAIが私たちの感情や社会に与える影響といった、さらに大きな変化が予測されます。

 これらのトレンドを理解し、適応していくことは、AIの可能性を最大限に引き出し、リスクを最小限に抑え、責任ある形で生成AIの導入を拡大していくために不可欠です。AI技術の進化は止まりません。常に最新の動向を注視し、その意味するところを深く考察していくことが、私たち一人ひとりに求められています。

この記事が気に入ったら
フォローしてね!

  • URLをコピーしました!
  • URLをコピーしました!
目次