ビジネス

1~13 / 2675件

ビジネス
2026/2/23 [MON]
MetaとNVIDIA、数百万規模のBlackwell/Rubin GPU導入へ──複数世代に及ぶ長期インフラ提携のサムネイル画像

MetaとNVIDIA、数百万規模のBlackwell/Rubin GPU導入へ──複数世代に及ぶ長期インフラ提携

MetaとNVIDIAは2026年2月17日、複数年にわたる長期的なインフラパートナーシップを[発表]{target=“_blank”}した。MetaはAI最適化データセンターの拡張に向け、数百万規模のNVIDIA BlackwellおよびRubin GPUを導入する方針を明らかにした。契約は複数世代にまたがる枠組みで、CPU、ネットワーク、機密計算まで含むフルスタック連携が特徴となる。 ## 「複数世代」まで明示した長期提携 両社は今回の枠組みを「multi-year」「multigenerational」と位置付けた。Metaの長期AIインフラロードマップを支える提携として、単一世代のGPU調達にとどまらず、Blackwell世代に加え、その後継となるRubin世代まで視野に入れる。 NVIDIAの発表によれば、MetaはBlackwellおよびRubin GPUを数百万規模で導入する計画で、さらにArmベースのGrace CPUの大規模展開、将来的には次世代のVera CPUも視野に入れるという。 ## GPUだけではない、フルスタック構成 提携はGPU供給契約にとどまらない。両社はCPU、GPU、ネットワーク、ソフトウェアを横断した設計を進める。 ネットワーク面では、NVIDIAのSpectrum-X EthernetをMetaのインフラに展開。低遅延と高スループットを実現し、大規模AI学習および推論ワークロードの効率化を図る。また、オンプレミスのデータセンターとNVIDIA Cloud Partner環境をまたぐ統一アーキテクチャにも言及した。 ## WhatsAppに「Confidential Computing」採用 セキュリティ分野では、MetaはWhatsAppの「private processing」にNVIDIAのConfidential Computing技術を採用する。 これにより、AI機能を活用しながら、ユーザーデータの機密性と完全性を確保する設計を進める。両社は将来的に他のワークロードへの拡張可能性も示唆している。 ## 共同最適化(co-design)を明示 両社は、単なるハードウェア導入ではなく、SOTA(最先端)モデルの性能を最大化するための共同設計を進めると説明した。CPU、GPU、ネットワーク、ソフトウェアを含むフルスタックでの最適化が提携の中核となる。 NVIDIAのCEOであるジェンスン・フアン氏は、Metaのスケールに対応するAI基盤構築に向けた協業の意義を強調。一方MetaのCEOであるマーク・ザッカーバーグ氏は、次世代プラットフォームの活用を通じて、長期的なAI戦略を推進する姿勢を示した。 契約の金銭的詳細は開示されていない。ただし、Metaは2025年に最大650億ドル(約10兆円)規模のAIインフラ投資計画を掲げており、今回の提携はそのロードマップを支える基盤整備の一環と位置付けられる。Blackwell、Rubin、さらに将来のVera世代まで視野に入れた複数世代の枠組みは、ハードウェアとソフトウェアを統合した長期的なAI基盤戦略を具体化する動きとして注目される。 :::box [関連記事:Meta、2025年に最大650億ドル(約10兆円)をAIインフラに投資—130万GPU導入と2GW級データセンター建設を計画] ::: :::box [関連記事:Meta、自社製チップをAIのトレーニング向けに試験導入──NVIDIA依存の低減を目指す] ::: :::box [関連記事:NVIDIA、次世代AI基盤「Rubin」をCESで正式発表──GPU「Rubin」と新CPU「Vera」を含む6チップ構成、推論コストは最大10分の1に] ::: :::box [関連記事:Microsoft、米国内初の「AIスーパーファクトリー」稼働開始──ウィスコンシンとアトランタを高速AI WANで結ぶ新型Fairwaterデータセンター群] ::: :::box [関連記事:米国エネルギー省とNVIDIA、10万GPUを搭載した史上最大級のAIスーパーコンピューターを構築──Oracleがクラウド基盤で協力し、科学インフラを刷新] :::

アクセスランキング
mailmagazine_Benefit_260109
FOLLOW US
各種SNSでも最新情報をお届けしております