特集
FEATURE
ビジネス
BUSINESS
ラーニング
LEARNING
エンジニアリング
ENGINEERING
学術&研究
ACADEMICS & STUDY
公共
PUBLIC
エンタメ&アート
ENTERTAINMENT & ART
1~13 / 2831件
Armは2026年3月24日(現地時間)、AIデータセンター向けに設計した新プロセッサー「Arm AGI CPU」を[発表]{target=“_blank”}した。エージェント型AIの普及に伴い増加する複雑なワークロードへの対応を目的としており、同CPUを起点にAIインフラ領域での展開を本格化する。35年以上にわたりCPU設計IPを提供してきた同社が、自社製シリコン製品を投入するのは初めて。 ## Neoverse基盤で設計されたAI向けCPU Arm AGI CPUは、同社のデータセンター向けプラットフォーム「Neoverse」を基盤に設計された。最大136コアの「Neoverse V3」を搭載し、高密度な並列処理を前提とした構成となっている。 AI推論やデータ処理、分散システムの制御といった用途を想定し、従来のクラウドワークロードに加えて、エージェント型AIの実行環境としての利用を視野に入れる。AIエージェントが複数のタスクを連続的に処理する中で、CPU側の処理能力とスケーラビリティが重要になる点を踏まえた設計だ。 ![image-6-1024x576.jpg] :::small 画像の出典:[Armブログ]{target=“_blank”} ::: ## ラック単位でのスケールを前提に設計 同CPUは単体性能だけでなく、データセンター全体でのスケール効率を重視している。Armはリファレンス構成として、1OUのデュアルノードサーバーを提示しており、ラック単位では最大8,160コアまで拡張可能としている。 また、コアあたり最大6GB/sのメモリ帯域を確保することで、大規模データ処理やAI推論におけるボトルネックの軽減を図る。こうした設計により、高密度かつ高効率なAIインフラ構築を可能にする。 ## Metaなどと連携、AIインフラの中核へ Arm AGI CPUは、Metaをはじめとするハイパースケーラーとの連携のもと開発が進められている。MetaはArmと共同でデータセンター向けCPUを複数世代にわたり開発する計画を明らかにしており、同CPUもその一環として位置づけられる。 このほか、OpenAIやCloudflareなどもエコシステムパートナーとして名を連ねており、AIサービス事業者との連携を前提とした展開が想定されている。 ## IP提供からプロダクションシリコンへ 今回の発表は、Armの事業戦略における転換点とも位置づけられる。これまで同社はCPU設計のIPを提供し、パートナー企業が製品化するモデルを採ってきたが、Arm AGI CPUでは設計主導のプロセッサーとして「プロダクションシリコン」への展開を打ち出した。 AIインフラの需要拡大を背景に、より直接的に市場へ関与する形へと踏み込んだ格好だ。 ## エージェント型AI時代に向けたCPUの再定義 生成AIの進化により、単発の推論処理だけでなく、複数のツールやプロセスを連携させる「エージェント型AI」の利用が広がりつつある。こうした環境では、GPUなどのアクセラレータに加え、CPUが担う制御・データ処理の役割が重要性を増す。 Arm AGI CPUは、こうした新しいAIワークロードに対応する基盤として設計されており、今後のAIデータセンターにおける構成要素の一つとして位置づけられる。 @[YouTube] :::box [関連記事:Google Cloud、第8世代TPU「TPU 8t/8i」発表 NVIDIA連携も拡大し、AI Hypercomputerを強化] ::: :::box [関連記事:Amazon、Anthropicに50億ドル出資 将来最大200億ドル追加出資へ、最大5GWのAI計算インフラを長期確保] ::: :::box [関連記事:NVIDIA、GTC 2026で次世代AI基盤を発表 「Vera Rubin」を軸にAIインフラを拡張] ::: :::box [関連記事:AIデータセンターの電力費負担を誓約 家庭向け料金への転嫁防止で米テック大手7社が合意] :::
Ledge.aiにソリューション情報を掲載しませんか?
使い方や具体的な目標などを詳しくご説明します
お問い合わせ