Pippit

كل ما نعرفه عن الإصدار القادم من DeepSeek V4

احصل على فهم شامل لنموذج الذكاء الاصطناعي البرمجي القادم: DeepSeek الإصدار V4. اكتشف ابتكاراته التي تشمل سياقًا بمليون رمز، ذاكرة إنغرام، استنتاج من ملفات متعددة، وتكاليف أقل بنسبة 50%.

deepseek الإصدار v4
Pippit
Pippit
Feb 4, 2026
14 من الدقائق

يتجه DeepSeek نحو إطلاق نموذجه الكبير التالي، DeepSeek V4، المعروف أيضًا باسم DeepSeek Model 1. يتحدث الأشخاص في مجالات التكنولوجيا والبرمجة عن ما قد يفعله ومتى سيصل. من المتوقع أن تصدر النسخة الجديدة قريبًا، وهي تجلب عدة تغييرات قد تبدو مختلفة عن الإصدارات السابقة. في المقالة أدناه، ستتعرف على الجدول الزمني وتستكشف الترقيات الرئيسية التي يقدمها مقارنة بالإصدارات السابقة.

جدول المحتويات
  1. نظرة سريعة على نماذج DeepSeek الحالية
  2. أخبار عن نموذج الذكاء الاصطناعي البرمجي القادم: DeepSeek V4
  3. مراجعة قصيرة لـ Pippit: تصور مطالبات DeepSeek الخاصة بك
  4. الخاتمة
  5. الأسئلة الشائعة

إلقاء نظرة سريعة على نماذج DeepSeek الحالية

لنلقي نظرة أولاً على جميع نماذج DeepSeek، حتى تحصل على فكرة عما تقوم الشركة بإنشائه فعليًا:

    1
  1. DeepSeek-V2 (نموذج اللغة العامة)

صدر هذا النموذج في مايو 2024 ويحتوي على 236 مليار متغير إجمالي، لكن فقط 21 مليارًا تكون نشطة عند معالجة كل رمز. تم بناؤه باستخدام مزيج من الخبراء، وهو ما يعني أساسًا أن النموذج يختار أجزاء معينة منه للتعامل مع المهام المختلفة بدلًا من استخدام كل شيء في آن واحد. هذا يجعله أكثر كفاءة بكثير.

يمكن لـ DeepSeek-V2 التعامل مع سياق يصل إلى 128,000 رمز. إنه جيد في المهام العامة للغة والبرمجة. أفضل ميزة هي أنه يكلف حوالي 42.5% أقل للتدريب مقارنةً بالنماذج السابقة، ويستخدم 93.3% ذاكرة أقل أثناء الاستخدام.

    2
  1. DeepSeek-V3 (نموذج اللغة الكبير ذو القدرة القوية على التفكير)

يُعد نموذج V3 ترقية كبيرة. يحتوي DeepSeek-V3 على 671 مليار بارامتر إجمالي مع 37 مليار بارامتر نشط لكل رمز. تم إصداره في ديسمبر 2024 وأثار صدمة للجميع بالفعل.

من حيث الأداء، ينافس النماذج المغلقة مثل GPT-4. إنه قوي جدًا في المهام الرياضية وبرمجة الأكواد. النموذج مفتوح المصدر بموجب ترخيص MIT، مما يعني أنه يمكن لأي شخص استخدامه تجاريًا أو تعديله.

    3
  1. DeepSeek-V3.1 و V3.2 (تحديثات مع تحسينات في التعامل مع السياق والأداء)

كان V3.1 بمثابة خطوة انتقالية نوعًا ما. لا توجد الكثير من المعلومات العامة عنه، ولكنه كان بشكل أساسي تحسينًا على الإصدار V3.

الإصدار V3.2 هو النموذج الرائد حاليًا. تم إصداره في أواخر عام 2025. يقدم شيئًا يسمى "DeepSeek Sparse Attention (DSA)"، والذي يقلل من تكاليف الحوسبة مع الحفاظ على جودة عالية، خاصة في السياقات الطويلة.

من خلال تحسينات التعلم التعزيزي، يعمل الإصدار V3.2 بمستوى يمكن مقارنته بـ GPT-5. لديهم في الواقع نسختان. الإصدار العادي V3.2 متوازن وفعال. ثم يوجد الإصدار V3.2-Speciale، الذي يُعزز القدرة على الاستدلال ويتفوق على Gemini 3.0 Pro. في الواقع، حصل الإصدار الخاص على أداء بمستوى الميدالية الذهبية في الأولمبياد الدولي للرياضيات 2025 ومسابقات أخرى.

الإصدار V3.2 هو أول نموذج لديهم يدمج الاستدلال مباشرة في استخدام الأدوات. لذا يمكنه التفكير خطوة بخطوة أثناء استخدام الأدوات الخارجية. شيء رائع لبناء وكلاء الذكاء الاصطناعي.

    4
  1. DeepSeek-R1 (نموذج يركز على التفكير)

R1 يدور حول التفكير. يستخدم التعلم المعزز بشكل كامل دون إجراء ضبط دقيق مبدئي تحت إشراف، مما يسمح للنموذج باكتشاف أنماط التفكير الخاصة به من خلال التجربة والخطأ. هذا مختلف عن الطريقة التي يتم بها تدريب معظم النماذج.

يعرض النموذج التحقق الذاتي، التأمل، ويُنتج سلاسل طويلة من الأفكار. عندما يحل المشاكل، يمكنك بالفعل رؤية عملية التفكير الخاصة به. يقوم بتقسيم الأشياء خطوة بخطوة.

الأداء قوي. يحصل على حوالي 79.8% في اختبار الرياضيات الأمريكي (American Invitational Mathematics Examination) و97.3% في MATH-500. بالنسبة للبرمجة، يصل إلى معدل Elo يبلغ 2,029 في تحديات البرمجة. يتنافس مع نموذج o1 الخاص بـ OpenAI.

الجزء المثير للاهتمام حقًا هو التكلفة. تشغيل DeepSeek R1 يكلف حوالي 8 دولارات لكل مليون رمز، في حين أن نموذج o1 الخاص بـ OpenAI يكلف 15 دولارًا لكل مليون رمز إدخال و60 دولارًا لكل مليون رمز إخراج. لذلك فهو أرخص بكثير.

مثل النماذج الأخرى V3، تم بناء R1 على DeepSeek-V3-Base ويدعم الاستخدام التجاري بموجب رخصة MIT.

أخبار حول نموذج الذكاء الاصطناعي القادم المخصص للبرمجة: DeepSeek V4

تاريخ الإصدار المتوقع لـ DeepSeek V4

تسعى DeepSeek لإصدار V4 في منتصف فبراير 2026، ومن المحتمل أن يكون حول 17 فبراير، بما يتزامن مع رأس السنة القمرية. هذا هو نفس استراتيجية التوقيت التي استخدموها مع نموذجهم R1. لم يتم تأكيد هذا رسميًا من قبل DeepSeek حتى الآن، ولكن تقارير من أشخاص مطلعين على المشروع تشير إلى هذا الإطار الزمني.

كانت الشركة هادئة جدًا بشأن هذا الأمر علنًا، ولكن كان هناك الكثير من الحديث بين المطورين الذين يتتبعون التحديثات على GitHub والأوراق البحثية. يشير تحليل قاعدة الأكواد الخاصة بـ FlashMLA إلى ظهور معرف نموذج جديد يسمى "MODEL1" 28 مرة عبر ملفاتهم، مما يعتقد الناس أنه ربما يكون V4. لذا باختصار، من المتوقع أن يصدر ذلك تقريبًا في منتصف فبراير، وربما في الأسابيع القليلة المقبلة، ولكن لا شيء مؤكد تمامًا حتى الآن.

DeepSeek V4

ابتكارات هندسة DeepSeek V4

    1
  1. DeepSeek mHC (الروابط الفائقة المقيدة بالمجموعة الجزئية)

DeepSeek mHC هي بنية جديدة وطريقة تدريب تهدف إلى جعل الشبكات العصبية الكبيرة، مثل نماذج اللغة الكبيرة، أسهل وأكثر استقرارًا في التدريب. إنها الصلة الأساسية لـ DeepSeek التي تقيد مصفوفات الاتصال المتعلمة بمصفوفات مزدوجة التوزيع حيث يكون مجموع الصفوف والأعمدة يساوي 1. هذا يحافظ على استقرار التدريب وسلوكه الجيد عبر الروابط الفائقة عن طريق منع انحراف التدرجات وقيم الإشارات عندما تصبح الشبكات أعمق.

    2
  1. هيكل ذاكرة Engram لاستدعاء أسرع

جزء جديد رئيسي في DeepSeek V4 هو Engram، نظام ذاكرة يخزن الأنماط والحقائق بطريقة يمكن الرجوع إليها بسرعة. يمكن للنموذج استرجاع البيانات المخزنة باستخدام عمليات بحث سريعة. يتيح ذلك له تذكر تسلسلات طويلة بشكل أفضل ويجعل عملية التفكير متسقة خلال المهام الطويلة. كما يتيح للنموذج التركيز على المعلومات الجديدة بدلاً من استرجاع الحقائق القديمة.

    3
  1. تقنيات متقدمة للانتباه والدقة

يقوم النموذج بإضافة تحسينات في كيفية التركيز على الأجزاء المهمة من المدخلات. طرق انتباه جديدة مثل الانتباه المتناثر تُمكن النموذج من التعامل مع تسلسلات طويلة دون تباطؤ كبير. تقنيات الدقة مثل تنسيقات الأرقام الممزوجة تجعل الحسابات أكثر دقة مع استخدام ذاكرة أقل. تُمكّن هذه التغييرات V4 من التفكير بوضوح أكبر حول المشكلات المعقدة مثل منطق الكود الطويل أو الوثائق المتعددة الطبقات.

    4
  1. مزيج الخبراء

يستمر DeepSeek V4 في استخدام هيكل مزيج‑الخبراء (MoE). في هذا التصميم، يحتوي النموذج على العديد من وحدات الخبراء الصغيرة ولا يفعل إلا الأكثر صلة بكل مهمة. يسمح هذا للنظام بالتوسع دون تفعيل جميع الأجزاء في جميع الأوقات. مع MoE، يظل V4 فعالًا حتى مع نمو حجمه وقدراته. بالاقتران مع Engram، يسمح هذا الهيكل للنموذج بموازنة الذاكرة والحساب بطريقة فعالة.

القدرات الرئيسية لـ DeepSeek V4 مقارنة بالنماذج السابقة

سيكون نموذج DeepSeek 1 قفزة كبيرة عن الإصدارات الأقدم. تشمل الترقيات الرئيسية المتوقعة في هذا النموذج الجديد:

    1
  1. تركيز قوي على البرمجة

تم تصميم DeepSeek V4 في الأساس للعمل في مجال هندسة البرمجيات. تظهر الاختبارات الداخلية أن الإصدار V4 يتفوق على كلود ونماذج GPT في توليد الكود طويل المدى. سيتعامل مع فهم الكود الطويل جدًا، التصحيح وإعادة الهيكلة عبر اللغات والأنظمة. يجب أن يساعد النموذج في مهام مثل تتبع الأخطاء، كتابة الاختبارات، وشرح الكود المعقد. يجعل هذا التركيز النموذج أكثر فائدة للمطورين مقارنة بنماذج الذكاء الاصطناعي العامة الغرض.

    2
  1. دعم السياق الطويل

تم تصميم الإصدار V4 لقراءة والتعامل مع كميات كبيرة جدًا من النصوص أو الأكواد في مرة واحدة. تستنفد معظم نماذج الذكاء الاصطناعي الذاكرة بعد عدة مئات الآلاف من الرموز. تم التخطيط لدعم DeepSeek V4 سياقات تزيد عن مليون رمز، مما يسمح لها بمعالجة قواعد كاملة للبيانات، أو مستندات طويلة، أو مجموعات بيانات كبيرة دون تقسيمها إلى أجزاء صغيرة. هذا يحسن الاستمرارية ويمنع النموذج من نسيان المعلومات المبكرة.

    3
  1. كفاءة حسابية محسّنة

خلف الكواليس، تستخدم V4 تغييرات هندسية ذكية لتقليل مقدار الحسابات التي تحتاجها. على سبيل المثال، تستخدم طرق انتباه متناثر تركز على قوة الحوسبة حيث تكون أكثر أهمية بدلاً من كل التفاعلات المحتملة. هذا يعني أن النموذج يمكنه تشغيل سياقات طويلة مع ذاكرة وطاقة أقل.

    4
  1. الاستدلال متعدد الملفات

التطور الكبير يتمثل في قدرة النموذج على فهم مدى ترابط الملفات مع بعضها البعض. بدلاً من قراءة ملف واحد في كل مرة، من المتوقع أن يقوم الإصدار الرابع بتتبع الواردات، الوظائف، التعريفات، والمراجع عبر المشروع بالكامل. هذا يمكنه من تحليل التبعيات، تحديد الأخطاء التي تمتد عبر ملفات متعددة، وتقديم اقتراحات لإعادة الهيكلة تعمل على النظام بأكمله.

مراجعة قصيرة عن Pippit: تصور طلباتك في DeepSeek

يعد Pippit أداة ذكاء اصطناعي تقدم مولد فيديو وأداة تصميم بالذكاء الاصطناعي لإنشاء الصور والفيديوهات. لذلك، عندما تستخدم DeepSeek لكتابة طلب تفصيلي، فكرة، أو نص، يمكنك إدخال ذلك النص في Pippit لإنشاء صور أو فيديوهات. النموذج المتقدم لتحويل النص إلى صورة أو فيديو من Pippit يقرأ الطلب وينشئ مقاطع اجتماعية، عروض المنتجات، أو تصورات القصص التي تعكس الطلبات التي أنشأتها في DeepSeek.

شاشة الرئيسية لـ Pippit

لماذا تختار Pippit لتصور طلباتك في DeepSeek

    1
  1. استجابة توليد الفيديو متعدد النماذج لمطالبات DeepSeek

يسمح لك Pippit بإدخال المطالبات التي يتم إنشاؤها بواسطة DeepSeek مع رابط صفحة المنتج أو PowerPoint أو مقاطع محلية وتحويلها فورًا إلى لمحات عن المنتج، أو مقاطع TikToks الفيروسية، أو مقاطع جذابة، أو مقاطع فيديو طريفة. تستخدم المنصة نماذج ذكاء اصطناعي مختلفة حسب احتياجاتك. يمكنك استخدام Veo 3.1 أو Sora 2 أو Agent mode أو وضع Lite، اختيار أي مدة وضبط لغة الفيديو.

مولد فيديو AI على Pippit
    1
  1. تصور مطالبات الصور بالذكاء الاصطناعي من DeepSeek لأي استخدام

يستخدم Pippit أحدث النماذج، Nano Banana Pro وSeedream 4.5، لإنشاء مرئيات عالية الجودة وقابلة للتخصيص من مطالبات نصية بسيطة يتم إنشاؤها بواسطة نماذج اللغة الكبيرة مثل DeepSeek. أداة التصميم بالذكاء الاصطناعي تفهم اللغة جيدًا وتلتقط قصدك بتفاصيل واضحة، وإضاءة متوازنة، وملمس محدد بدقة. يمكنك تحميل الصور المرجعية، وضبط نسب العرض إلى الارتفاع، وتخصيص كل شيء من الألوان إلى العناصر المحددة التي تريد تضمينها.

أداة تصميم الذكاء الاصطناعي على Pippit

كيفية تحويل طلبات DeepSeek إلى مقاطع فيديو في Pippit

يمكنك النقر على الرابط أدناه ثم اتباع هذه الخطوات الثلاث لإنشاء مقاطع للتواصل الاجتماعي، إعلانات، وأكثر باستخدام Pippit مع الطلبات التي تقوم بإنشائها بواسطة DeepSeek:

    1
  1. افتح مولّد الفيديو
  • أولاً، تحتاج إلى التسجيل للحصول على حساب Pippit. يمكنك استخدام تسجيل الدخول عبر Google أو TikTok أو Facebook، أيهما أسهل لك.
  • بمجرد الدخول، انقر على "مولد الفيديو" من لوحة التنقل اليسرى.
  • الآن سترى حقل نص حيث يمكنك إدخال الطلب الذي يتم إنشاؤه بواسطة DeekSeek.
فتح مولد الفيديو المدعوم بالذكاء الاصطناعي على Pippit.
    2
  1. قم بإنشاء الفيديو الخاص بك من طلبات DeepSeek.
  • اضغط على "إضافة وسائط والمزيد" إذا كنت تريد تحميل الصور أو مقاطع الفيديو أو أي مواد مرجعية.
  • انقر على "اختيار نموذج" لتحديد النموذج بناءً على نوع الفيديو الذي تحتاجه. وضع Lite يعمل للفيديوهات التسويقية السريعة، وضع Agent مناسب للأمور الإبداعية، Veo 3.1 يتعامل مع الفيديوهات الواقعية بشكل جيد، وSora 2 مخصص للمحتوى الأكثر دقة.
  • إذا كنت تستخدم وضع Agent، يمكنك الضغط على "تحميل فيديو مرجعي" لإظهار أسلوب تريد إعادة إنشائه للذكاء الاصطناعي.
  • افتح "تخصيص إعدادات الفيديو" لضبط الطول. قم بتعيينها إلى أي شيء يناسب مشروعك، بدايةً من 15 ثانية وحتى بضع دقائق.
  • يمكنك أيضًا اختيار تفضيل اللغة الخاص بك هنا إذا كنت تريد تسجيلات صوتية أو ترجمات.
  • بمجرد أن يبدو كل شيء صحيحًا، انقر على "إنشاء" ودع Pippit يُنشئ الفيديو الخاص بك. سيضيف الرسوم المتحركة والانتقالات والتأثيرات بناءً على ما وصفته في طلبك.

جرّب الطلب من DeepSeek: إنشاء فيديو عالي الجودة لكلب صغير يرقص في غرفة معيشة حديثة. المشهد هو ديكور منزل مريح مع نوافذ كبيرة وضوء شمس صباحي لطيف يلقي بظلال طبيعية على الأرضية الخشبية. يقف الكلب على ساقيه الخلفيتين ويؤدي قفزات جانبية مرحة، وهو يدور في دائرة صغيرة ويحرك كفوفه في الهواء بإيقاع. تستخدم الكاميرا أسلوب تصوير باليد بطيء يتحرك من اليسار إلى اليمين مع حركة طبيعية طفيفة. تصحيح لون دافئ، حركة واقعية، وأجواء مبهجة.

إنشاء الفيديوهات باستخدام Pippit
    3
  1. تصدير ومشاركة
  • اختر "تحرير المزيد" لفتح محرر الفيديو الداخلي لتحسين محتوى الفيديو الخاص بك أكثر.
  • اضغط على "تنزيل" لحفظ الفيديو على جهاز الكمبيوتر الخاص بك.
  • إذا كنت ترغب في مشاركته على الفور، اضغط على "نشر" لجدولة ونشر الفيديو تلقائيًا على منصات التواصل الاجتماعي مثل TikTok وFacebook وInstagram.
تصدير الفيديو من Pippit

كيفية تحويل مطالبات DeepSeek إلى صور في Pippit

اتبع هذه الخطوات لتحويل طلبات الصور بالذكاء الاصطناعي التي يتم إنشاؤها بواسطة DeepSeek إلى ملصقات أو منشورات أو خلفيات أو منشورات على وسائل التواصل الاجتماعي أو لإنشاء أعمال فنية.

    1
  1. افتح أداة تصميم الذكاء الاصطناعي
  • انقر على "استوديو الصور" تحت "الإبداع".
  • انقر على "تصميم الذكاء الاصطناعي" تحت "ترقية صور التسويق".
  • أخبر ديبسيك بنوع الصورة التي تريدها، ثم انسخ النص التوضيحي واستخدمه في بيبيت.
الوصول إلى أداة تصميم الذكاء الاصطناعي
    2
  1. حوّل نصوص ديبسيك إلى صور
  • اضغط على الزر \"+\" إذا كنت تريد تحميل صور مرجعية. ربما لديك أمثلة على النمط الذي تريده، أو عناصر محددة تريد أن يستخدمها الذكاء الاصطناعي كمصدر إلهام. هذه الخطوة اختيارية ولكنها مفيدة.
  • لاختيار بين نموذج Seedream أو Nano Banana، اضغط على \"النموذج.\" لكل منهما نقاط قوة مختلفة. إذا لم تكن متأكدًا من الذي يجب استخدامه، اتركه على الوضع التلقائي ودع Pippit يقرر.
  • اختر \"نسبة العرض إلى الارتفاع\" التي تحتاجها. مربع لمنشورات وسائل التواصل الاجتماعي، أفقي للمواقع الإلكترونية، عمودي لشاشات الهواتف، أيًا كان ما يناسب مشروعك.
  • اضغط على \"إنشاء\" وانتظر قليلاً بينما يقوم الذكاء الاصطناعي لـ Pippit بإنشاء صورتك بناءً على كل ما وصفته.

جرب الإشارة من DeepSeek: كلب يركض عبر مساحة مفتوحة في حديقة، أذناه مرفوعتان أثناء الحركة، فمه مفتوح قليلاً، ويداه مشوشة بسبب السرعة. الخلفية تمتد إلى خطوط خضراء وبنية أثناء محاولة الكاميرا الحفاظ على التركيز. تومض أشعة الشمس عبر الجسم في بقع متقطعة. مُصور يدويًا، مع سرعة غالق سريعة ولكن تتبع غير مثالي، وضوضاء مرئية في المناطق المظللة، مع ترك ضبابية الحركة للحفاظ على الواقعية.

أنشئ صورًا على Pippit
    3
  1. صدّر صورتك
  • تحقق من النتيجة المُولدة من موجه DeepSeek. يمكنك تعديل تفاصيل الموجه الخاص بك لإنشاء المزيد من الصور بأنماط مختلفة.
  • استفد من الأدوات الداخلية لتحسين محتوى صورتك بناءً على احتياجاتك.
  • انقر على "تنزيل" لحفظ صورتك على جهازك المحلي.
احفظ صورتك

الخاتمة

لذا دعنا نلخص ما غطيناه هنا. قمنا بمراجعة lineup الحالي لـ DeepSeek واستكشفنا ما سيأتي مع V4، الذي يُعتبر ترقية جدية مع نافذة السياق لمليون رمز، هيكلية Engram للذاكرة، والتركيز العميق على مهام البرمجة. هذه التحسينات تجعلها أكثر قدرة على التعامل مع المشاريع المعقدة ومجموعات البيانات الكبيرة. هذا يُظهر بوضوح أن DeepSeek قطعت شوطًا كبيرًا في غضون بضع سنوات فقط. أصبحت الآن أداة موثوقة لمهام البرمجة الجادة والأبحاث وحل المشكلات.

الأسئلة الشائعة

ما المميز في نموذج DeepSeek v3؟

يتميز نموذج DeepSeek V3 بقدرته على معالجة المدخلات الكبيرة جدًا، مع نافذة سياق تصل إلى 128 ألف رمز، مما يتيح له قراءة والتفكير في مستندات أو قواعد برمجية طويلة. يستخدم تصميم خليط من الخبراء (MoE)، مما يجعله سريعاً وفعالاً بتنشيط أجزاء من النموذج فقط عند الحاجة. تمتلك V3 أيضاً ذاكرة هرمية لتذكر المعلومات المهمة، ونظام تثبيت الحقائق لتقليل الأخطاء، وتقنيات تدريب متقدمة لتحسين جودة النص والأداء.

ما هي النماذج المدرجة في قائمة نماذج DeepSeek؟

تشمل تشكيلة نماذج DeepSeek نموذج V2 لتحسين السياق والاستنتاج، ونموذج V3 بـ128 ألف رمز مع MoE، ونموذج V3.1 للاستنتاج الأعمق. يوجد أيضاً نموذج V3.2- Speciale، الذي يعمل بشكل جيد في مهام الاستنتاج وحل المشاكل بمستوى المنافسة. تركز سلسلة R1 على الاستنتاج المنطقي خطوة بخطوة.

كيف تتعامل DeepSeek مع مهام السياق الطويل؟

يتعامل نموذج الذكاء الاصطناعي DeepSeek مع السياق الطويل من خلال آليات انتباه متناثرة تختار فقط الرموز الأكثر صلة بدلاً من مقارنة كل شيء بكل شيء آخر. يجعل هذا معالجة السياق الطويل أسرع كثيراً، مع تقديم مخرجات عالية الجودة. يمكن لـV3.2 والنموذج القادم V4 معالجة أكثر من مليون رمز، مما يعني أنهما يستطيعان العمل مع قواعد بيانات كاملة أو مستندات ضخمة دفعة واحدة.

هل سيكون DeepSeek V4 مفتوح المصدر؟

حتى الآن، لم تؤكد DeepSeek رسميًا ما إذا كان V4 سيكون مفتوح المصدر بالكامل. ومع ذلك، لدى DeepSeek نمط واضح يجعل نماذجها وأوزانها متاحة للجمهور. لذلك بناءً على سجلهم مع V2 و V3 و R1، من المحتمل جدًا أن يتبع V4 نفس النمط عند إطلاقه في منتصف فبراير.

هل يمكن استخدام نماذج DeepSeek محليًا؟

نعم، يمكنك تشغيل نماذج DeepSeek محليًا. لدى V3 و V3.1 أوزان مفتوحة يمكنك تنزيلها وتشغيلها على وحدة المعالجة المركزية أو وحدة معالجة الرسومات الخاصة بك. الإصدارات الأصغر من R1 المقطرة، مثل نماذج المعلمات 7B و 14B و 32B، تعمل على الأجهزة الاستهلاكية العادية. من المتوقع أن يعمل V4 على وحدتي معالجة RTX 409 مزدوجتين أو وحدة RTX 5090 واحدة بفضل تصميم Mixture-of-Experts الخاص به.

رائج وشائع