ビジネス

1~13 / 2562件

ビジネス
2026/1/7 [WED]
NVIDIA、次世代AI基盤「Rubin」をCESで正式発表──GPU「Rubin」と新CPU「Vera」を含む6チップ構成、推論コストは最大10分の1にのサムネイル画像

NVIDIA、次世代AI基盤「Rubin」をCESで正式発表──GPU「Rubin」と新CPU「Vera」を含む6チップ構成、推論コストは最大10分の1に

NVIDIAは2026年1月5日(米国時間)、CESの開催に際し、AIデータセンター向けの次世代プラットフォーム「Rubin」を[発表]{target=“_blank”}した。 新たに設計したCPU「Vera」とGPU「Rubin」を中核に、6種類の半導体を極めて緊密に統合した構成が特徴で、同社は従来世代「Blackwell」と比べ、AIの学習および推論にかかるコストを大幅に削減できるとしている。 Rubinプラットフォームは、NVIDIA Vera CPU、NVIDIA Rubin GPU、NVLink 6 Switch、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6 Ethernet Switchの6つの新チップで構成される。チップ単体の性能向上に依存するのではなく、CPU、GPU、ネットワーク、ストレージ、セキュリティまでを含めた“プラットフォーム全体”を同時に設計する「エクストリーム・コードザイン」を採用した点が特徴だ。 **■ CESの基調講演で、NVIDIAのCEOであるジェンスン・フアン氏が次世代AI基盤「Rubin」を構成する主要コンポーネントを紹介した** ![jensen vera rubin2.jpg] :::small 画像の出典:[NVIDIA Live with CEO Jensen Huang]{target=“_blank”} ::: Rubinという名称は、銀河の回転速度を観測し、ダークマターの存在を示した米国の天文学者ヴェラ・ルービン氏に由来する。NVIDIAは、同氏が宇宙観を大きく変えた存在であることになぞらえ、AIコンピューティングの新たな基盤となるプラットフォームにその名を冠したとしている。 **■ CESの基調講演で示された、天文学者ヴェラ・ルービン氏と銀河回転曲線の図。新プラットフォーム「Rubin」は、同氏にちなんで命名された** ![vera rubin2.jpg] :::small 画像の出典:[NVIDIA Live with CEO Jensen Huang]{target=“_blank”} ::: Rubin GPUは、第3世代のTransformer Engineを搭載し、推論処理に最適化された演算性能を特徴とする。NVIDIAは、演算精度を動的に調整する仕組みにより、推論性能と効率の両立を図っていると説明している。 **■ NVIDIAがCESで示した「Rubin GPU」の主な仕様。推論性能やメモリ帯域などで、Blackwell世代からの大幅な向上が示されている** ![nvidia rubin cpu.jpg] :::small 画像の出典:[NVIDIA Live with CEO Jensen Huang]{target=“_blank”} ::: 一方、新CPU「Vera」は、大規模AIファクトリー向けに設計されたNVIDIA独自のCPUだ。GPUとの高帯域接続を前提とした構成を採用し、従来の汎用CPUとは異なる役割を担うとしている。 **■ NVIDIAが新たに設計した「Vera CPU」の概要。88基のカスタムOlympusコアと、GPUとの高帯域接続を前提とした構成が示されている** ![nvidia vera cpu.jpg] :::small 画像の出典:[NVIDIA Live with CEO Jensen Huang]{target=“_blank”} ::: システム形態としては、72基のRubin GPUと36基のVera CPUを1ラックに統合した「Vera Rubin NVL72」と、8基のGPUを搭載する「HGX Rubin NVL8」を用意する。いずれもNVLink 6による高帯域接続を特徴とし、ラック単位でAIスーパーコンピューターとして機能する設計だ。 また、Rubinでは冷却や運用面の刷新も図られている。100%液体冷却を前提とした設計により、高密度化を進めつつ、組み立てや保守作業の効率化を実現したという。加えて、CPU、GPU、相互接続を横断してデータを保護するコンフィデンシャル・コンピューティング機能や、信頼性を高めるRAS(信頼性・可用性・保守性)機構も強化されている。 Rubinプラットフォームはすでに量産段階にあり、2026年後半からOEMやクラウド事業者を通じて提供される予定だ。Microsoftの次世代AIデータセンターや、CoreWeaveのAIクラウドなどでの採用も計画されており、NVIDIAはRubinを通じて、学習・推論の両面でAIインフラの次の世代を切り開くとしている。 :::box [関連記事:NVIDIA、革新的な製品群を続々発表——次世代GPUアーキテクチャ「Blackwell Ultra」「Vera Rubin」「Rubin Ultra」、DeepSeek-R1を30倍に高速化可能な推論AI用ライブラリ「NVIDIA Dynamo」、ローカル環境でAI開発が可能な「DGX Spark」と「DGX Station」] ::: :::box [関連記事:米国エネルギー省とNVIDIA、10万GPUを搭載した史上最大級のAIスーパーコンピューターを構築──Oracleがクラウド基盤で協力し、科学インフラを刷新] ::: :::box [関連記事:さくらインターネット、生成AI開発を効率化──NVIDIA最新GPU「B200」搭載クラウドを提供開始] ::: :::box [関連記事:「世界最小クラス」NVIDIAがの小型AIスパコン「Project DIGITS」を発表ーー1台あたり3,000ドルから、最大4,050億パラメーターのLLMを実行可能に] ::: :::box [関連記事:エヌビディアがAIインフラの話を「今」すべきだと考える理由] :::

25to26_registration_rectangle_top_ai70th
FOLLOW US
各種SNSでも最新情報をお届けしております