ビジネス

1~13 / 2829件

ビジネス
2026/4/27 [MON]
DeepSeek、「DeepSeek-V4」公開 オープンながらトップクラス性能を主張、1Mコンテキスト対応のサムネイル画像

DeepSeek、「DeepSeek-V4」公開 オープンながらトップクラス性能を主張、1Mコンテキスト対応

中国のAI企業DeepSeekは2026年4月24日(日本時間)、オープンなAIモデル「DeepSeek-V4」プレビュー版を[公開]{target=“_blank”}した。高性能モデル「DeepSeek-V4-Pro」と軽量高速モデル「DeepSeek-V4-Flash」の2系統で展開し、いずれも100万トークンの長文コンテキストに対応する。モデルはオープンウェイトとして公開され、APIおよびWebアプリでも利用可能となった。 ## Proは1.6兆、Flashは2840億パラメータのMoE構成 DeepSeek-V4-Proは総パラメータ数1.6兆、アクティブパラメータ49BのMixture of Experts(MoE)モデル。DeepSeek-V4-Flashは総パラメータ数284B、アクティブパラメータ13Bの軽量版となる。 両モデルとも100万トークンのコンテキスト長を標準でサポートし、Proは「Expert Mode」、Flashは「Instant Mode」として提供される。APIも同日より利用可能となり、OpenAI互換およびAnthropic互換のインターフェースをサポートする。 **■ DeepSeek-V4-ProとDeepSeek-V4-Flashの主要仕様** :Proは1.6兆パラメータのMoE構成、Flashは軽量・高速モデルとして設計されている ![HGo9ronbUAAKlRk.jpg] :::small 画像の出典:[DeepSeek]{target=“_blank”} ::: ## 1Mコンテキストを標準化、長文処理の効率も改善 DeepSeekは今回、100万トークンの長文処理を「標準仕様」として位置づけた。技術的には、トークン単位圧縮とスパース化を組み合わせた独自の注意機構(DeepSeek Sparse Attention)を採用している。 これにより、従来モデルと比較して長文処理時の計算量およびメモリ使用量を大幅に削減したと説明しており、長大なドキュメント処理やエージェントタスクにおける実用性を高めたとしている。 **■ DeepSeek-V4は長文コンテキスト処理において、従来モデル比で計算量(FLOPs)とKVキャッシュ使用量の削減を実現したとされる** ![HGo4dwSagAEiVVx.jpg] :::small 画像の出典:[DeepSeek]{target=“_blank”} ::: ## ベンチマークでオープンモデル最上位を主張 DeepSeekは、DeepSeek-V4-Pro-Maxの評価として、複数のベンチマークで既存のオープンモデルを上回る性能を示したと発表している。 知識・推論領域では、SimpleQA VerifiedやApex Shortlist、Codeforcesなどで高スコアを記録。特にCodeforcesでは3206のレーティングを示し、GPT-5.4(3168)やGemini-3.1-Pro(3052)と同等以上の水準に達したとしている。 一方、エージェント性能を測るSWE VerifiedやToolathlonでも競争力のある結果を示し、コーディングやツール利用を含む実行能力の向上を強調した。 **■ DeepSeek-V4-Pro-Maxと主要モデルのベンチマーク比較。知識・推論およびAgent能力の両面で高いスコアを示したとされる** ![Open-source SOTA in Agentic Coding benchmarks.jpg] :::small 画像の出典:[DeepSeek]{target=“_blank”} ::: ## 詳細ベンチマークでも広範なタスクで高水準 公開された詳細テーブルでは、MMLU-Pro、GPQA、HLE、LiveCodeBench、SWE系ベンチマークなど幅広い指標で評価が示されている。特にコーディングおよび推論系タスクにおいて、オープンモデルとしては高い水準に位置づけられている。 **■ DeepSeek-V4の詳細ベンチマーク一覧。知識・長文・エージェントの各領域で幅広く評価されている** ![HGo4YMzagAA1eMd.jpg] :::small 画像の出典:[DeepSeek]{target=“_blank”} ::: ## Agent統合を前提に設計、コーディング用途も強化 DeepSeekは、DeepSeek-V4がClaude CodeやOpenClaw、OpenCodeなどのAIエージェントと統合可能であると説明している。社内でもエージェント型コーディングにすでに活用しているという。 また、ポストトレーニングでは数学・コーディング・エージェントタスクなど複数領域に特化したモデルを構築し、それらを統合する手法を採用。推論能力と実行能力の両立を図った設計となっている。 ## API提供を開始、旧モデルは7月で廃止へ APIは公開と同時に提供開始され、既存ユーザーはモデル名を切り替えることで利用可能となる。ThinkingモードとNon-Thinkingモードの両方に対応する。 料金は、DeepSeek-V4-Proが入力0.145ドル(キャッシュヒット時)/1.74ドル(ミス時)、出力3.48ドル、DeepSeek-V4-Flashが入力0.028ドル/0.14ドル、出力0.28ドルとされており、Flashはコスト効率を重視した設計となっている。 **■ DeepSeek-V4のAPI料金。Flashは低価格・高速性を重視した設計となっている** ![HGo4pxoaIAALIVc.jpg] :::small 画像の出典:[DeepSeek]{target=“_blank”} ::: なお、従来の「deepseek-chat」「deepseek-reasoner」は2026年7月24日(UTC)をもって提供終了予定であり、DeepSeek-V4への移行が進められる。 DeepSeek-V4は、長文処理・推論・エージェント能力を統合したオープンモデルとして公開された。オープンモデルの性能水準が、クローズドモデルにどこまで迫れるかを示す動きとして注目される。 :::box [関連記事:GPT-5級「DeepSeek-V3.2」をオープンウェイト公開 DeepSeek、推論とAgent性能を強化] ::: :::box [関連記事:中国Moonshot、「Kimi K2.6」公開 オープンソースで視覚情報対応、長時間コーディングとAgent性能を強化] ::: :::box [関連記事:AlibabaのAI研究チーム「Qwen3.6」発表と同時にオープンモデル公開 Gemma 4を上回るスコアを提示] ::: :::box [関連記事:中国Z.ai、新AIモデル「GLM-5」公開──ベンチマークでGemini・Claudeと並走] ::: :::box [関連記事:中国のAI企業、高コスパの最新LLM「DeepSeek-V3」を発表――パラメーター数はGPT-4の1/3強と推定される6710億個、トレーニングコストは約1/20] :::

アクセスランキング
mailmagazine_250819
FOLLOW US
各種SNSでも最新情報をお届けしております