特集
FEATURE
ビジネス
BUSINESS
ラーニング
LEARNING
エンジニアリング
ENGINEERING
学術&研究
ACADEMICS & STUDY
公共
PUBLIC
エンタメ&アート
ENTERTAINMENT & ART
1~13 / 2623件
Microsoftは米国時間2026年1月26日、AI推論に特化した自社設計のカスタムアクセラレータ「Maia 200」を[発表]{target=“_blank”}した。大規模言語モデル(LLM)などの推論処理を想定した設計で、同社はクラウドサービス「Azure」におけるAI基盤を支える中核技術の一つと位置づけている。 Maia 200は、学習用途ではなく推論ワークロードに最適化したアクセラレータとして設計された。Microsoftによると、トークン生成を中心とする推論処理において、スループットや電力効率、システム全体でのスケーラビリティを重視しているという。製造にはTSMCの3ナノメートルプロセスを採用し、FP8およびFP4演算に対応したテンソル演算機構を備える。 ![Maia200chip-960x540.png] :::small 画像の出典:[Microsoft]{target=“_blank”} ::: メモリ構成ではHBM3eを採用し、大容量かつ高帯域のメモリアクセスを可能にした。Microsoftは、Maia 200が従来世代と比べて性能あたりのコスト効率を向上させたと説明しているが、具体的な比較対象や条件については明らかにしていない。 同社は、Maia 200をAzureのデータセンターに段階的に導入する方針を示している。Azure AI FoundryやMicrosoft 365 CopilotといったAIサービスの基盤として活用されるほか、OpenAIの最新モデルであるGPT-5.2を含む複数のAIモデルを支えるインフラとして位置づけられている。 @[YouTube] Microsoftはこれまで、GPUを中心とした外部ベンダー製アクセラレータを活用してきたが、AI利用の急拡大を背景に、自社設計シリコンの開発を進めてきた。Maia 200は、その流れの中で推論処理に特化した最新世代のアクセラレータとなる。 :::box [関連記事:MicrosoftがAIサービスに独自設計チップ「Maia 100」とArm CPU「Cobalt 100」の採用を発表] ::: :::box [関連記事:NVIDIA、新GPU「NVIDIA HGX H200」を発表 生成AIやLLMの高速化を促進] ::: :::box [関連記事:Meta、自社開発AIチップ「MTIA」第2世代を発表—前世代の3倍の性能を実現し、データセンターにも導入] ::: :::box [関連記事:Microsoft、Build 2025でAIエージェント戦略の本格展開を発表——xAI「Grok 3」などをAzureに追加し利用可能モデル数は1,900超に、MCPも積極推進] ::: :::box [関連記事:ChatGPT、新モデル「GPT-5.2」公開──アルトマンCEO「最も賢い一般提供モデル」 推論・コード生成が大幅進化] :::
Ledge.aiにソリューション情報を掲載しませんか?
使い方や具体的な目標などを詳しくご説明します
お問い合わせ