Pippit

次期DeepSeek V4に関するすべての情報

次世代のコーディングAIモデル「DeepSeek V4」の完全な理解を得ることができます。100万トークンのコンテキスト、エングラムメモリー、マルチファイル推論、50%のコスト削減という革新を発見してください。

DeepSeek v4
Pippit
Pippit
Feb 4, 2026
14分

DeepSeekは次の大規模モデル、DeepSeek V4、別名DeepSeek Model 1を公開する予定です。技術やコーディング業界の人々は、それがどのような機能を持つのか、そしていつ登場するのかについて話しています。新しいバージョンはまもなく公開される予定で、過去のリリースと異なるいくつかの変更点をもたらします。以下の記事では、タイムラインを学び、過去のバージョンと比較して主なアップグレードについて探ります。

目次
  1. 現在のDeepSeekモデルの簡単な概要
  2. 新しいコーディングAIモデルに関するニュース: DeepSeek V4
  3. Pippitの簡短レビュー: DeepSeekプロンプトを視覚化
  4. 結論
  5. よくある質問

現在のDeepSeekモデルの概要

まずすべてのDeepSeekモデルを見てみましょう。これにより、会社が実際に何を作り上げてきたのかがわかります:

    1
  1. DeepSeek-V2(汎用LLM)

このモデルは2024年5月に発表され、合計2360億のパラメーターを持っていますが、各トークンを処理する際にアクティブになるのは210億のみです。これはMixture of Expertsを使用して構築されており、基本的にはモデルがすべてを一度に使用するのではなく、特定のタスクを処理するための特定の部分を選択することを意味します。これにより、非常に効率的になります。

DeepSeek-V2は最大128,000トークンのコンテキストを処理できます。一般的な言語タスクやコーディングに優れています。最も優れている点は、以前のモデルよりもトレーニングコストが約42.5%削減され、使用時のメモリ消費が93.3%減少したことです。

    2
  1. DeepSeek-V3(強い推論能力を持つ大規模言語モデル)

このV3モデルは大きなアップグレードです。DeepSeek-V3は6710億の総パラメータを持ち、トークンごとに370億がアクティブです。2024年12月にリリースされ、正直なところ、誰もが驚きました。

パフォーマンスの面では、GPT-4のようなクローズドモデルと競争しており、数学やコーディングタスクに非常に強いです。このモデルはMITライセンスの下でオープンソースで提供されており、誰でも商業利用や改変が可能です。

    3
  1. DeepSeek-V3.1およびV3.2(コンテキスト処理と性能が改善されたアップデート)

V3.1は一種の踏み台でした。それに関する公の情報は多くありませんが、基本的にV3を改良したものです。

V3.2は現在のフラッグシップモデルです。2025年末にリリースされました。「DeepSeek Sparse Attention(DSA)」と呼ばれるものを導入し、長いコンテキストに対して品質を保ちながら計算コストを削減します。

強化学習の改善を通じて、V3.2はGPT-5に匹敵するレベルのパフォーマンスを発揮します。実際に2つのバージョンがあります。通常のV3.2はバランスが取れており効率的です。そして、V3.2-Specialeは推論能力を最大限に高め、Gemini 3.0 Proに匹敵します。特別版は実際に2025年の国際数学オリンピックやその他の競技で金メダルレベルのパフォーマンスを獲得しました。

V3.2はツールの利用に推論を直接組み込んだ初めてのモデルです。外部ツールを使用しながら一歩ずつ考えることができます。AIエージェントの構築にはかなりクールな機能です。

    4
  1. DeepSeek-R1(推論中心のモデル)

R1は推論に特化しています。まずは教師あり微調整をせずに純粋な強化学習を使用することで、モデル自身が試行錯誤を通じて独自の推論パターンを発見できるようにしています。これは、ほとんどのモデルのトレーニング方法とは異なります。

モデルは自己検証や自省を行い、長い思考の連鎖を生成します。問題を解決するとき、実際にモデルの思考プロセスを見ることができます。それは物事を一歩一歩に分解します。

パフォーマンスは優れています。アメリカインビテーショナル数学試験で約79.8%、MATH-500で97.3%を達成。コーディングにおいては、プログラミングチャレンジで2,029のEloレーティングに到達しています。それはOpenAIのo1モデルと競合しています。

本当に興味深い部分はコストです。DeepSeek R1の実行には100万トークンあたり約8ドルがかかり、一方OpenAIのo1モデルは、入力トークンで100万あたり15ドル、出力トークンで100万あたり60ドルかかります。そのため、はるかに安価です。

他のV3モデルと同様に、R1はDeepSeek-V3-Baseの上に構築されており、MITライセンスのもと商業利用が可能です。

新しいコーディングAIモデルに関するニュース:DeepSeek V4

DeepSeek V4の推定リリース日

DeepSeekは、V4のリリースを2026年2月中旬、具体的には旧正月と重なる2月17日頃を目指しています。これは彼らがR1モデルで使用したのと同じタイミング戦略です。これについてはDeepSeekからまだ公式確認がされていませんが、このプロジェクトに詳しい人々の報告ではこの期間が示されています。

会社はその件について公にはほとんど静かですが、GitHubや研究論文の更新を追跡している開発者たちの間では多くの反響があります。彼らのFlashMLAコードベースの分析によると、「MODEL1」という新しいモデル識別子がファイル内で28回現れており、それが恐らくV4ではないかと考えられています。つまり、2月中旬頃、もしくは数週間以内に公開されると予想されていますが、まだ完全に確定したわけではありません。

DeepSeek V4

DeepSeek V4のアーキテクチャ革新

    1
  1. DeepSeek mHC (多様体制約付きハイパー接続)

DeepSeek mHCは、大規模なニューラルネットワーク、例えば大規模言語モデルを、より簡単かつ安定してトレーニングできるようにする新しいアーキテクチャとトレーニング手法です。これは学習された接続行列を、行と列の合計がそれぞれ1になる二重確率行列の多様体に制約するDeepSeekの主要な接続です。これにより、ネットワークが深くなるにつれてグラデーションや信号の大きさが爆発することを防ぎ、ハイパー接続でのトレーニングを安定かつ良好に保ちます。

    2
  1. 高速なリコールのためのエングラムメモリーアーキテクチャ

DeepSeek V4の新しいコア部分は、Engramというメモリーシステムであり、パターンや事実を迅速に検索できる形で保存します。このモデルは、高速検索を使用して保存されたデータを取得することができます。これにより、長いシーケンスをより良く記憶し、長期的なタスクにおける推論の一貫性を保つことができます。これにより、モデルは古い事実を思い出すのではなく、新しい情報に集中することが可能になります。

    3
  1. 高度なアテンションと精度向上技術

このモデルは、入力の重要な部分に注意を向ける方法に改善を加えています。スパースアテンションのような新しいアテンション手法により、このモデルは長いシーケンスを処理する際に過剰に低速化することを避けることができます。混合数値フォーマットなどの精度向上技術により、より少ないメモリで計算をより正確に行うことが可能になります。これらの変更により、V4は長いコードロジックや階層化された文書といった複雑な問題について、より明確に推論できるようになります。

    4
  1. Mixture-of-experts

DeepSeek V4は引き続きmixture‑of‑experts(MoE)の構造を使用します。この設計では、モデルには多数の小さなエキスパートモジュールがあり、各タスクに最も関連性の高いものだけが有効化されます。これにより、すべての部分を常にアクティブにしなくても、システムを拡張させることができます。MoEを使用することで、V4はその規模と能力が拡大しても効率的に動作します。Engramと組み合わせることで、この構造によりモデルは強力な方法でメモリと計算のバランスを取ることができます。

以前のモデルに対するDeepSeek V4の主な能力

DeepSeekモデル1は、旧バージョンから大きな飛躍を遂げるでしょう。この新しいモデルで期待される主なアップグレードには以下が含まれます:

    1
  1. コーディングに強く集中

DeepSeek V4 は、まず第一にソフトウェアエンジニアリングの作業のために構築されています。内部テストによると、V4 は長いコンテキストのコード生成においてClaudeやGPTモデルを上回っていると報告されています。非常に長いコードの理解、デバッグ、および言語やシステムを越えたリファクタリングを処理します。このモデルは、バグの追跡、テストの作成、複雑なコードの説明などのタスクに役立つはずです。この焦点により、汎用AIモデルと比較して、開発者にとってより有用なものになります。

    2
  1. 長いコンテキスト対応

V4は、非常に大量のテキストやコードを一度に読み取り、処理するよう設計されています。ほとんどのAIモデルは、数十万トークン後にメモリ不足になります。DeepSeek V4は100万トークンをはるかに超えるコンテキストをサポートする計画であり、それによりコードベース全体、長い文書、大規模データセットを、より小さなチャンクに分割することなく処理できます。これにより連続性が改善され、モデルが以前の情報を忘れることを防ぎます。

    3
  1. 計算効率の向上

舞台裏では、V4は必要な計算量を減らすためのスマートなエンジニアリングの変更を使用しています。例えば、すべての可能な相互作用ではなく、重要な部分に計算力を集中させるスパースアテンションメソッドを使用しています。これにより、モデルはより少ないメモリとエネルギーで長いコンテキストを実行できます。

    4
  1. マルチファイル推論

大きなアップグレードの一つは、このモデルが複数のファイルがどのように関連しているかを理解できる能力です。1つのファイルだけを順に読むのではなく、V4はプロジェクト全体でインポート、関数、定義、参照を追跡することが期待されています。これにより依存関係を分析し、複数のファイルにまたがるエラーを見つけ、システム全体で機能するリファクタリングの提案を提供します。

Pippitの短評: DeepSeekのプロンプトを視覚化

Pippitは、画像と動画を作成するための動画生成ツールAIデザインツールを提供するAIツールです。したがって、DeepSeekを使用して詳細なプロンプト、アイデア、またはスクリプトを書くと、そのテキストをPippitに持ち込んでビジュアルや動画を作成できます。Pippitの高度なテキストから画像や動画へのモデルは、そのプロンプトを読み取り、DeepSeekで作成したプロンプトを反映するソーシャルクリップ、製品紹介、またはストーリービジュアルを生成します。

Pippitホーム画面

DeepSeekのプロンプトを視覚化するためにPippitを選ぶ理由

    1
  1. DeepSeekプロンプトへの応答としてのマルチモーダル動画生成

Pippitでは、DeepSeekが生成したプロンプトを商品ページのリンク、PowerPoint、またはローカル動画とともに入力することで、商品ハイライト動画、バイラルTikTok動画、魅力的なリール、面白いミーム動画を瞬時に作成できます。このプラットフォームは、必要に応じて異なるAIモデルを使用します。Veo 3.1Sora 2AgentモードまたはLiteモードを利用し、任意の長さを選択し、動画の言語を設定できます。

Pippit上のAI動画生成ツール
    1
  1. DeepSeekから生成されたAI画像プロンプトを視覚化してあらゆる用途に対応

Pippitは最新モデルのNano Banana ProSeedream 4.5を使用し、DeepSeekのような大規模言語モデルによって生成されたシンプルなテキストプロンプトから、高品質でカスタマイズ可能なビジュアルを作成します。このAIデザインツールは言語を非常によく理解し、明確な詳細、バランスの取れた照明、そして定義のはっきりした質感で意図を掴みます。リファレンス画像をアップロードしたり、アスペクト比を調整したり、色から具体的な要素まで、含めたいものをすべてカスタマイズすることができます。

PippitのAIデザインツール

PippitでDeepSeekプロンプトを動画に変換する方法

以下のリンクをクリックし、次の3つのステップに従って、DeepSeekで生成したプロンプトを使用してPippitでソーシャルメディアクリップや広告などを作成します。

    1
  1. 動画生成ツールを開く
  • まず、Pippitアカウントにサインアップする必要があります。Google、TikTok、またはFacebookのログインを使用できます。使いやすいものを選んでください。
  • ログインしたら、左側のナビゲーションパネルから「動画生成ツール」をクリックしてください。
  • 次に、DeekSeekによって生成されたプロンプトを入力するテキストフィールドが表示されます。
PippitでAI動画生成ツールを開く
    2
  1. DeepSeekのプロンプトから動画を生成
  • 写真、動画クリップ、または任意の参照資料をアップロードしたい場合は「メディアとその他を追加」ボタンを押してください。
  • 必要な種類の動画に基づいてモデルを選択するために「モデルを選ぶ」をクリックしてください。Liteモードは迅速なマーケティング動画に適し、Agentモードは創造的な内容に向いています。Veo 3.1はリアルな動画を効果的に処理し、Sora 2はより洗練されたコンテンツ向けです。
  • Agentモードを使用している場合、「参照動画をアップロード」をクリックして、再現したいスタイルをAIに示すことができます。
  • 「動画設定をカスタマイズ」を開き、長さを調整してください。プロジェクトに適した設定にしてください。15秒から数分まで、自由に設定可能です。
  • ナレーションや字幕を希望する場合は、ここで言語の好みを選択することもできます。
  • すべてが正しいように見えたら、「生成」をクリックして、Pippitにビデオを作成させましょう。入力したプロンプトに基づいてアニメーション、トランジション、エフェクトを追加します。

DeepSeekのプロンプトを試してください: 現代的なリビングルームで小さな犬が踊っている高品質なビデオを生成します。シーンは、大きな窓と柔らかい朝の陽光が木製の床に自然な影を落とす居心地の良い住まいのインテリアです。犬は後ろ足で立ち、左右にリズミカルに跳ねる楽しい動きをし、小さな円を描いて回転しながら空中に前足をかざします。カメラは、わずかな自然な動きを伴う左から右へのスローハンドヘルドスタイルのパンを使用します。暖かい色調のグレーディング、リアルな動き、楽しい雰囲気。

Pippitでビデオを制作
    3
  1. エクスポートと共有
  • 「さらに編集」を選択して内部の動画編集ツールを開き、動画コンテンツをさらに強化してください。
  • 「ダウンロード」をクリックして動画をコンピューターに保存してください。
  • すぐに共有したい場合は、「公開」をクリックして、TikTok、Facebook、Instagramなどのソーシャルメディアプラットフォームに自動スケジュール投稿してください。
Pippitからの動画のエクスポート

PippitでDeepSeekプロンプトを画像に変換する方法

ポスター、チラシ、壁紙、ソーシャルメディア投稿、またはアートワーク作成のためにDeepSeekが生成したAI画像プロンプトを画像に変換するための手順に従ってください。

    1
  1. AIデザインツールを開く
  • 「クリエイション」の下にある「イメージスタジオ」をクリック
  • 「マーケティング画像をレベルアップ」の下にある「AIデザイン」をクリック
  • どのような画像が欲しいのかDeepSeekに伝え、そのプロンプトをコピーしてPippitで使用
AIデザインツールにアクセス
    2
  1. DeepSeekプロンプトを画像に変換
  • 「+」ボタンをクリックすると、参考画像をアップロードできます。目指しているスタイルの例や、AIにインスピレーションとして使用してほしい具体的な要素があるかもしれません。この手順は任意ですが、役に立ちます。
  • SeedreamモデルまたはNano Bananaモデルを選ぶには、「モデル」をクリックしてください。それぞれ異なる強みがあります。どれを使うべきか分からない場合は、「自動」を選択してPippitに任せてください。
  • 必要な「アスペクト比」を選択してください。ソーシャルメディア投稿には正方形、ウェブサイトには横向き、スマホ画面には縦向きなど、プロジェクトに合ったものを選びましょう。
  • 「生成」をクリックして、PippitのAIが説明に基づいて画像を生成するのを少し待ってください。

DeepSeekのプロンプトを試してください: 開けた公園を走る犬。耳は動きの途中で上がり、口は少し開き、スピードで足がぼやけています。カメラが焦点を維持しようとする中で、背景が緑と茶色の筋になって広がっています。日差しが体に点々と当たります手持ち撮影、速いシャッタースピードだが追尾が不完全で、影の部分にノイズが見え、動きのブレはリアリズムを維持するためそのまま残されています。

Pippitで画像を作成
    3
  1. 画像をエクスポート
  • DeepSeekプロンプトから生成された結果を確認してください。プロンプトの詳細を調整して、異なるスタイルでさらに画像を生成できます。
  • 内部ツールを活用して、ニーズに基づいて画像の内容を微調整できます。
  • 「ダウンロード」をクリックして、画像をローカルデバイスに保存してください。
画像を保存

結論

ここで取り上げた内容を振り返りましょう。DeepSeekの現在のラインアップを確認し、V4で登場する大幅なアップグレードについて探りました。これには、100万トークンのコンテキストウィンドウ、Engramメモリーアーキテクチャ、およびコード作業に特化した機能が含まれます。これらの改善により、複雑なプロジェクトや大規模なデータセットの処理能力が向上します。このことは、DeepSeekがわずか数年で大きく進化したことを明確に示しています。現在では、本格的なコーディング、研究、問題解決のための必須ツールとなっています。

よくある質問 (FAQs)

DeepSeek v3モデルの特長は何ですか?

DeepSeek V3モデルは、非常に大きな入力を処理できる点で際立っています。最大128Kトークンのコンテキストウィンドウを持ち、長い文書やコードベースに対して読み込みや推論が可能です。必要に応じてモデルの一部のみを活性化することで、高速かつ効率的に動作するMixture-of-Experts (MoE)設計を採用しています。V3には重要な情報を記憶する階層型メモリ、エラーを減らすための真実アンカーシステム、テキストの品質と性能を向上させる高度なトレーニング技術も備わっています。

DeepSeekモデルリストにはどのモデルが含まれていますか?

DeepSeekモデルラインアップには、コンテキストと推論を改善するためのV2、128KトークンウィンドウとMoEを持つV3、そしてより深い推論が可能なV3.1が含まれています。さらに、推論タスクや競争レベルの問題解決に優れたV3.2- Specialeモデルもあります。R1シリーズは、段階的な論理的推論に重点を置いています。

DeepSeekは長いコンテキストタスクをどのように処理しますか?

DeepSeek AIモデルは、すべてを比較するのではなく最も関連性の高いトークンのみを選択するスパース注意メカニズムを通じて、長いコンテキストを処理します。これにより、長いコンテキスト処理が非常に高速になり、高品質な出力を提供します。V3.2と近日発売予定のV4は、100万以上のトークンを処理できるため、コードベース全体や大量のドキュメントを一度に扱うことができます。

DeepSeek V4はオープンソースになりますか?

現在のところ、DeepSeekはV4が完全にオープンソースになるかどうかを正式に確認していません。しかし、DeepSeekはそのモデルや重みを一般公開する傾向があります。そのため、V2、V3、およびR1の実績を考えると、V4も同様のパターンに従う可能性が高いと思われます。それが2月中旬にリリースされる際に。

DeepSeekモデルはローカルで使用できますか?

はい、DeepSeekモデルをローカルで実行できます。V3およびV3.1には、ダウンロードして自身のCPUまたはGPUで実行できるオープンウェイトがあります。7B、14B、32BパラメータのようなR1の小型蒸留版は、一般的なコンシューマーハードウェアで動作します。V4はMixture-of-Expertsデザインのおかげで、デュアルRTX 409sまたはシングルRTX 5090で動作することが期待されています。

ホットで人気