はじめに
NVIDIAが2026年1月5日、ラスベガスで開催されたCES 2026の基調講演で、次世代AIプラットフォーム「Rubin」と自動運転向けオープンモデル「Alpamayo」を発表しました。同社創業者兼CEOのJensen Huang氏は、AIがあらゆる領域とデバイスに拡大していることを強調し、10兆ドル規模の既存コンピューティングインフラが新しい計算方式へと刷新されつつあると述べました。本稿では、この発表内容をもとに、Rubinプラットフォームの特徴、オープンモデル戦略、そしてPhysical AIの進展について解説します。
参考記事
- タイトル: NVIDIA Rubin Platform, Open Models, Autonomous Driving: NVIDIA Presents Blueprint for the Future at CES
- 著者: Brian Caulfield
- 発行元: NVIDIA Blog
- 発行日: 2026年1月5日
- URL: https://blogs.nvidia.com/blog/2026-ces-special-presentation/
要点
- Rubinは、NVIDIAとして初めて6つのチップを統合設計した極限同時設計プラットフォームであり、前世代と比較してトークン生成コストを約10分の1に削減する
- NVIDIAは、ヘルスケア、気候科学、ロボティクス、自動運転など6つの領域でオープンモデルを提供し、グローバルなAIエコシステムを形成している
- Alpamayoは、レベル4自動運転を可能にする推論機能を持つビジョン・言語・アクションモデルで、メルセデス・ベンツの新型CLAに搭載される
- DGX Sparkデスクトップスーパーコンピュータは、大規模モデルで最大2.6倍の性能向上を実現し、パーソナルAIエージェントの実用化を加速する
- Physical AIの進展により、ロボットはNVIDIA Isaac SimとIsaac Labのシミュレーション環境で訓練され、実世界での動作に移行できるようになった
詳細解説
Rubinプラットフォームの全体像
Nvidiaの代表Huang氏は、アメリカの天文学者Vera Rubinにちなんで命名された次世代コンピューティングプラットフォーム「Rubin」を発表しました。Rubinは、記録的な性能を示したBlackwellアーキテクチャの後継であり、現在フル生産体制に入っています。
Rubinプラットフォームは、データセンター全体を起点として設計されており、以下の6つのコンポーネントで構成されています。50ペタフロップスのNVFP4推論性能を持つRubin GPU、データ移動とエージェント処理に特化したVera CPU、スケールアップネットワーキングのためのNVLink 6、スケールアウトネットワーキングのためのSpectrum-X Ethernetフォトニクス、ConnectX-9 SuperNIC、そしてBlueField-4 DPUです。
Huang氏は、ギガスケールのAIをスケールさせるには、チップ、トレイ、ラック、ネットワーキング、ストレージ、ソフトウェアを統合的に設計する「極限同時設計」が不可欠だと説明しました。この統合設計により、ボトルネックが解消され、訓練と推論のコストが劇的に削減されます。
極限同時設計とは、システム全体の各コンポーネントを個別に最適化するのではなく、相互の依存関係を考慮しながら同時に設計するアプローチです。従来のシステム設計では、各コンポーネントが独立して開発され、後から統合される際に性能上のボトルネックが発生することがありましたが、Rubinではこれを回避しています。
さらに、NVIDIA Inference Context Memory Storage Platformという新しいAIネイティブストレージも発表されました。これはAIネイティブのKVキャッシュ層で、長文脈推論において、1秒あたりのトークン数を5倍、TCOあたりの性能を5倍、電力効率を5倍向上させます。
KVキャッシュとは、Transformerモデルにおいて、過去の計算結果を保存しておくことで、推論時の計算量を削減する技術です。長文脈を扱う場合、このキャッシュサイズが大きくなり、メモリ帯域幅がボトルネックとなることがありますが、専用のストレージ層を設けることでこの問題が緩和されると考えられます。
これらすべてを統合したRubinプラットフォームは、AIトークンを前世代の10分の1のコストで提供できるとされています。Huang氏は「AIモデルの訓練が速くなれば、次世代の技術をより早く世界に届けられます。これが市場投入までの時間であり、技術リーダーシップです」と述べました。
オープンモデル戦略の展開
NVIDIAは、自社のスーパーコンピュータで訓練されたオープンモデルを通じて、ヘルスケア、気候科学、ロボティクス、エンボディードインテリジェンス、自動運転の各分野でブレークスルーを推進しています。
Huang氏は「NVIDIAは最先端のAIモデル構築者であり、非常に特別な方法でそれを行っています。完全にオープンな形で構築することで、すべての企業、すべての業界、すべての国がこのAI革命に参加できるようにしています」と説明しました。
オープンモデルのポートフォリオは6つの領域にわたります。ヘルスケア向けのClara、気候科学向けのEarth-2、推論とマルチモーダルAI向けのNemotron、ロボティクスとシミュレーション向けのCosmos、エンボディードインテリジェンス向けのGR00T、そして自動運転向けのAlpamayoです。
「これらのモデルは世界に開かれています」とHuang氏は述べ、NVIDIAがリーダーボードのトップに立つ世界クラスのモデルを持つ最先端のAI構築者としての役割を強調しました。開発者は「モデルを作成し、評価し、ガードレールを設定し、展開できます」。
オープンモデルの利点は、企業が独自にモデルを一から構築するコストを削減しながら、自社のデータやユースケースに合わせてカスタマイズできる点にあります。また、コミュニティ全体でモデルの改善が進むことで、技術の進化が加速すると考えられます。
パーソナルAIとDGX Spark
Huang氏は、AIの未来はスーパーコンピュータだけでなく、パーソナルな領域にもあると強調しました。
デモでは、DGX Sparkデスクトップスーパーコンピュータ上でローカルに動作するパーソナライズされたAIエージェントが、Hugging Faceのモデルを使用してReachy Miniロボットに具現化される様子が示されました。これは、オープンモデル、モデルルーティング、ローカル実行が組み合わさることで、エージェントが応答性の高い物理的な協働者になることを示しています。
「驚くべきことは、これが今では全く簡単になったということです。しかし、ほんの数年前なら不可能で、全く想像もできなかったことです」とHuang氏は述べました。
また、CESでNVIDIAは、DGX Sparkが大規模モデルで最大2.6倍の性能向上を実現し、新たにLightricksのLTX-2およびFLUX画像モデルをサポートし、今後NVIDIA AI Enterpriseが利用可能になることを発表しました。
Palantir、ServiceNow、Snowflake、CodeRabbit、CrowdStrike、NetApp、Semantecなどの世界をリードする企業が、自社製品にNVIDIA AIを統合していることも紹介されました。「Palantirであれ、ServiceNowであれ、Snowflakeであれ、そして私たちが協働している多くの他社であれ、エージェントシステムがインターフェースとなります」とHuang氏は説明しました。
Physical AIとCosmos
AIは現在、NVIDIAの訓練、推論、エッジコンピューティング技術を通じて、物理世界に根ざしたものになっています。
これらのシステムは、実世界と相互作用する前に、仮想世界で合成データを使って訓練できます。Huang氏は、動画、ロボティクスデータ、シミュレーションで訓練されたNVIDIA Cosmosオープンワールド基盤モデルを紹介しました。
Cosmosは、単一の画像からリアルな動画を生成し、マルチカメラの運転シナリオを合成し、シナリオプロンプトからエッジケース環境をモデル化し、物理的推論と軌道予測を実行し、インタラクティブなクローズドループシミュレーションを駆動します。
シミュレーション環境でのトレーニングは、実世界でのデータ収集が困難またはコストが高い場合に特に有効です。例えば、自動運転車の開発では、危険なシナリオや稀な状況を実車で再現することは現実的ではありませんが、シミュレーションでは無制限に様々な状況を生成できます。
Alpamayoと自動運転の未来
この展開をさらに進めるものとして、Huang氏はAlpamayoを発表しました。これは、レベル4対応の自動運転を可能にする推論ビジョン・言語・アクションモデル、シミュレーションブループリント、データセットのオープンポートフォリオです。
Alpamayoには、自動運転向けの初のオープン推論VLAモデルであるAlpamayo R1と、高精度のAVテスト用の完全にオープンなシミュレーションブループリントであるAlpaSimが含まれます。
「センサー入力を受け取ってハンドル、ブレーキ、アクセルを操作するだけでなく、これから取ろうとしている行動について推論もします」とHuang氏は説明し、サンフランシスコの混雑した交通をスムーズに走行する車両を示す動画を紹介しました。
推論機能を持つことは、単なるルールベースの自動運転と、状況を理解して判断できる自動運転の大きな違いです。例えば、「前方に歩行者がいるから減速する」だけでなく、「歩行者が道路を横断しようとしている様子だから、完全に停止する必要がある」といった高度な判断が可能になると考えられます。
また、Huang氏は、NVIDIA DRIVEフルスタック自動運転プラットフォーム上に構築されたAlpamayoを搭載した初の乗用車が、まもなく全く新しいメルセデス・ベンツCLAで路上に登場することを発表しました。AI定義の運転が今年米国に導入され、CLAは最近EuroNCAPで5つ星の安全性評価を獲得しています。
さらに、世界中の主要な自動車メーカー、サプライヤー、ロボタクシープロバイダーが採用している、オープンでモジュラー式のレベル4対応プラットフォームであるDRIVE Hyperionの勢いが拡大していることも強調されました。
「私たちのビジョンは、いつの日か、すべての車、すべてのトラックが自動運転になることであり、私たちはその未来に向けて取り組んでいます」とHuang氏は述べました。
グローバルなPhysical AIエコシステム
Huang氏は、NVIDIAのフルスタックアプローチがグローバルなPhysical AIエコシステムを促進していると説明しました。ステージには小さなビープ音を発し、跳ねる2台のロボットが登場しました。
ロボットがNVIDIA Isaac SimとIsaac Labのフォトリアリスティックなシミュレーション世界で訓練される様子が示され、その後、Synopsys、Cadence、Boston Dynamics、Frankaなど、Physical AIにおける業界パートナーの取り組みが紹介されました。
また、Huang氏はSiemensの基調講演にSiemens CEOのRoland Busch氏とともに登壇し、パートナーシップの拡大を発表しました。これは、NVIDIAのフルスタックがSiemensの産業用ソフトウェアと統合され、設計とシミュレーションから生産まで、Physical AIを可能にすることを示すモンタージュによってサポートされています。
「これらの製造プラントは、本質的に巨大なロボットになります」とHuang氏は月曜日のNVIDIAのプレゼンテーションで述べました。
製造業におけるAIの統合は、生産効率の向上だけでなく、品質管理、予知保全、柔軟な生産体制の構築など、多岐にわたる効果が期待されます。シミュレーション環境で最適化された生産プロセスを、実際の工場に展開することで、試行錯誤のコストを大幅に削減できると考えられます。
フルスタックアプローチの重要性
Huang氏は、NVIDIAが今や完全なシステムを構築しているのは、AIのブレークスルーを実現するには、最適化されたフルスタックが必要だからだと説明しました。
「私たちの仕事は、皆さんが世界の他の人々のために素晴らしいアプリケーションを作成できるように、スタック全体を作ることです」と彼は述べました。
まとめ
NVIDIAのCES 2026での発表は、同社のAI戦略が計算基盤からアプリケーション層まで、包括的に展開されていることを示しています。Rubinプラットフォームによるコスト削減、オープンモデルによるエコシステム形成、そしてAlpamayoに代表されるPhysical AIの進展は、AI技術の実用化を加速させる要素と考えられます。メルセデス・ベンツCLAへの搭載は、自動運転技術の商用化が新たな段階に入ることを示唆しており、今後の展開が注目されます。
