Pippit

Alles, was wir über den kommenden DeepSeek V4 wissen

Erhalten Sie ein umfassendes Verständnis des kommenden Coding-AI-Modells: DeepSeek V4. Entdecken Sie seine Innovationen, darunter ein Millionen-Token-Kontext, Engramm-Speicher, Multi-Datei-Analysen und 50 % geringere Kosten.

DeepSeek V4
Pippit
Pippit
Feb 4, 2026
14 Minute(n)

DeepSeek steht kurz vor der Veröffentlichung seines nächsten großen Modells, DeepSeek V4, auch DeepSeek Model 1 genannt. Menschen in Technik- und Coding-Kreisen sprechen darüber, was es leisten könnte und wann es erscheinen wird. Die neue Version wird bald erwartet und bringt mehrere Änderungen mit sich, die sich von früheren Veröffentlichungen unterscheiden könnten. Im folgenden Artikel erfahren Sie den Zeitplan und entdecken die wichtigsten Verbesserungen im Vergleich zu früheren Versionen.

Inhaltsverzeichnis
  1. Ein kurzer Überblick über die aktuellen DeepSeek-Modelle
  2. Nachrichten über das kommende Coding-KI-Modell: DeepSeek V4
  3. Eine kurze Rezension von Pippit: Ihre DeepSeek-Prompts visualisieren
  4. Fazit
  5. FAQs

Ein kurzer Blick auf die aktuellen DeepSeek-Modelle

Sehen wir uns zuerst alle DeepSeek-Modelle an, damit Sie eine Vorstellung davon haben, was das Unternehmen tatsächlich entwickelt hat:

    1
  1. DeepSeek-V2 (Allgemeines LLM)

Dieses Modell wurde im Mai 2024 veröffentlicht und verfügt über insgesamt 236 Milliarden Parameter, von denen jedoch nur 21 Milliarden aktiv sind, wenn jedes Token verarbeitet wird. Es wurde mit Mixture of Experts entwickelt, was im Wesentlichen bedeutet, dass das Modell spezifische Teile von sich selbst auswählt, um verschiedene Aufgaben zu bewältigen, anstatt alles auf einmal zu verwenden. Dadurch wird es wesentlich effizienter.

DeepSeek-V2 kann bis zu 128.000 Token-Kontext verarbeiten. Es ist gut in allgemeinen Sprachaufgaben und Programmierung. Das Beste daran ist, dass die Trainierung etwa 42,5 % weniger kostet als bei früheren Modellen und während der Nutzung 93,3 % weniger Speicher benötigt wird.

    2
  1. DeepSeek-V3 (großes Sprachmodell mit starken Argumentationsfähigkeiten)

Dieses V3-Modell ist ein großes Upgrade. DeepSeek-V3 verfügt über insgesamt 671 Milliarden Parameter, von denen 37 Milliarden pro Token aktiv sind. Es erschien im Dezember 2024 und hat ehrlich gesagt alle ziemlich überrascht.

Leistungsbezogen konkurriert es mit geschlossenen Modellen wie GPT-4. Es ist sehr stark bei Mathematik- und Codierungsaufgaben. Das Modell ist quelloffen unter der MIT-Lizenz, das bedeutet, dass es von jedem kommerziell genutzt oder modifiziert werden kann.

    3
  1. DeepSeek-V3.1 und V3.2 (Updates mit verbessertem Kontextverständnis und Leistung)

V3.1 war irgendwie ein Meilenstein. Nicht viele öffentliche Informationen darüber, aber es ging im Wesentlichen darum, V3 zu verbessern.

V3.2 ist das aktuelle Flaggschiff. Erschienen Ende 2025. Es führt etwas ein, das DeepSeek Sparse Attention (DSA) genannt wird, wodurch die Rechenkosten gesenkt werden, während die Qualität hoch bleibt, insbesondere für lange Kontexte.

Durch Verbesserungen beim Reinforcement Learning erreicht V3.2 eine Leistung, die mit GPT-5 vergleichbar ist. Es gibt tatsächlich zwei Versionen. Die reguläre V3.2 ist ausgewogen und effizient. Dann gibt es V3.2-Speciale, das maximale Schlussfolgerungen erlaubt und mit Gemini 3.0 Pro konkurriert. Die Spezialversion erreichte tatsächlich eine Goldmedaillenleistung bei der Internationalen Mathematik-Olympiade 2025 und anderen Wettbewerben.

V3.2 ist ihr erstes Modell, das das Schließen direkt in die Werkzeugnutzung integriert. Es kann also Schritt für Schritt denken, während es externe Werkzeuge verwendet. Ziemlich cool, um KI-Agenten zu entwickeln.

    4
  1. DeepSeek-R1 (modell mit Fokus auf logisches Denken)

R1 dreht sich ganz um logisches Denken. Es verwendet zuerst reines Reinforcement Learning ohne überwachtes Fine-Tuning, sodass das Modell durch Versuch und Irrtum seine eigenen Denkmuster entdecken kann. Das unterscheidet sich davon, wie die meisten Modelle trainiert werden.

Das Modell zeigt Selbstüberprüfung, Reflexion und generiert lange Gedankenketten. Wenn es Probleme löst, können Sie tatsächlich seinen Denkprozess sehen. Es zerlegt die Dinge Schritt für Schritt.

Die Leistung ist stark. Es erreicht etwa 79,8 % bei der American Invitational Mathematics Examination und 97,3 % bei MATH-500. Beim Programmieren erzielt es eine Elo-Wertung von 2.029 bei Programmierherausforderungen. Es konkurriert mit OpenAIs o1-Modell.

Der wirklich interessante Teil ist die Kostenfrage. Der Betrieb von DeepSeek R1 kostet etwa 8 $ pro Million Tokens, während OpenAIs o1 15 $ pro Million Eingabe-Tokens und 60 $ pro Million Ausgabe-Tokens kostet. Es ist also deutlich günstiger.

Wie die anderen V3-Modelle basiert R1 auf dem DeepSeek-V3-Base und unterstützt kommerzielle Nutzung unter der MIT-Lizenz.

Neuigkeiten zum kommenden KI-Modell für Programmierung: DeepSeek V4

Voraussichtliches Veröffentlichungsdatum von DeepSeek V4

DeepSeek strebt eine Veröffentlichung von V4 Mitte Februar 2026 an, wahrscheinlich um den 17. Februar herum, was mit dem chinesischen Neujahr zusammenfällt. Das ist dieselbe Zeitplanstrategie, die sie mit ihrem R1-Modell verwendet haben. Dies wurde von DeepSeek noch nicht offiziell bestätigt, aber Berichte von Personen, die mit dem Projekt vertraut sind, deuten auf diesen Zeitraum hin.

Die Firma war öffentlich ziemlich still darüber, aber es gibt viel Aufregung von Entwicklern, die Updates auf GitHub und Forschungsarbeiten verfolgen. Die Analyse ihres FlashMLA-Codebasis zeigt einen neuen Modellbezeichner namens „MODEL1“, der 28 Mal in ihren Dateien auftaucht und wahrscheinlich V4 ist. Im Grunde genommen sollte man es irgendwann Mitte Februar erwarten, vielleicht in den nächsten Wochen, aber nichts ist völlig festgelegt.

DeepSeek V4

Architekturinnovationen von DeepSeek V4

    1
  1. DeepSeek mHC (Manifold-Constrained Hyper-Connections)

DeepSeek mHC ist eine neue Architektur und Trainingsmethode, um große neuronale Netzwerke, beispielsweise große Sprachmodelle, einfacher und stabiler zu trainieren. Es ist DeepSeeks Schlüsselverbindung, um die gelernten Verbindungs-Matrizen auf eine Mannigfaltigkeit von doppelt stochastischen Matrizen zu beschränken, bei denen die Zeilen und Spalten jeweils die Summe 1 ergeben. Dies hält das Training stabil und gut durchführbar mit Hyper-Verbindungen, indem verhindert wird, dass Gradienten und Signalmagnituden explodieren, wenn Netzwerke tiefer werden.

    2
  1. Engram-Speicherarchitektur für schnelleres Abrufen

Ein zentraler neuer Bestandteil von DeepSeek V4 ist Engram, ein Speichersystem, das Muster und Fakten auf eine Weise speichert, die schnell abgerufen werden kann. Das Modell kann gespeicherte Daten mithilfe schneller Abrufe heraussuchen. Dies ermöglicht, sich an lange Sequenzen besser zu erinnern und ein konsistentes Denken bei langen Aufgaben beizubehalten. Es entlastet das Modell gleichzeitig, sodass es sich auf neue Informationen konzentrieren kann, anstatt alte Fakten abzurufen.

    3
  1. Fortgeschrittene Aufmerksamkeits- und Präzisionstechniken

Das Modell bringt Verbesserungen darin, wie es wichtigen Teilen der Eingabe Aufmerksamkeit schenkt. Neue Aufmerksamkeitsmethoden wie sparsame Aufmerksamkeit ermöglichen es dem Modell, lange Sequenzen zu verarbeiten, ohne dabei zu stark zu verlangsamen. Präzisionstechniken wie gemischte numerische Formate machen Berechnungen genauer und gleichzeitig speichereffizienter. Diese Änderungen ermöglichen es V4, klarer über komplexe Probleme wie lange Code-Logik oder geschichtete Dokumente nachzudenken.

    4
  1. Mixture-of-experts

DeepSeek V4 verwendet weiterhin eine Mixture-of-Experts-(MoE)-Struktur. In diesem Design hat das Modell viele kleine Expertenmodule und aktiviert nur die relevantesten für jede Aufgabe. Dadurch kann das System skalieren, ohne dass jede Komponente ständig aktiv sein muss. Mit MoE bleibt V4 effizient, auch wenn es an Größe und Leistungsfähigkeit zunimmt. Kombiniert mit Engram ermöglicht diese Struktur dem Modell, Speicher und Rechenleistung auf eine leistungsstarke Weise auszubalancieren.

Wichtige Fähigkeiten von DeepSeek V4 im Vergleich zu früheren Modellen

Das DeepSeek-Modell 1 wird ein großer Sprung im Vergleich zu älteren Versionen sein. Die wichtigsten Verbesserungen, die in diesem neuen Modell erwartet werden, umfassen:

    1
  1. Starker Fokus auf Codierung

DeepSeek V4 wurde in erster Linie für Softwareentwicklungsarbeiten entwickelt. Interne Tests zeigen Berichten zufolge, dass V4 sowohl Claude als auch GPT-Modelle bei der Code-Generierung mit langem Kontext übertrifft. Es wird sehr lange Codeverständnis, Debugging und Refactoring über verschiedene Sprachen und Systeme hinweg bewältigen. Das Modell soll bei Aufgaben wie Fehlerverfolgung, Testschreiben und Erklären von komplexem Code helfen. Dieser Fokus macht es für Entwickler nützlicher im Vergleich zu allgemeinen KI-Modellen.

    2
  1. Unterstützung für langen Kontext

V4 ist darauf ausgelegt, große Text- oder Code-Mengen in einem Durchgang zu lesen und zu bearbeiten. Die meisten KI-Modelle stoßen nach ein paar hunderttausend Tokens an ihre Speichergrenze. DeepSeek V4 soll Kontexte von weit über 1 Million Tokens unterstützen, sodass es ganze Codebasen, lange Dokumente oder große Datensätze ohne Aufteilung in kleinere Teile verarbeiten kann. Das verbessert die Kontinuität und verhindert, dass das Modell frühere Informationen vergisst.

    3
  1. Verbesserte rechnerische Effizienz

Hinter den Kulissen nutzt V4 intelligente technische Änderungen, um den erforderlichen Rechenaufwand zu reduzieren. Zum Beispiel verwendet es spärliche Aufmerksamkeitsmethoden, die sich auf die Rechenleistung dort konzentrieren, wo sie am meisten benötigt wird, und nicht auf jede mögliche Interaktion. Das bedeutet, dass das Modell lange Kontexte mit weniger Speicher und Energie ausführen kann.

    4
  1. Mehrdatei-Schlussfolgerungen

Ein großes Upgrade ist die Fähigkeit des Modells, zu verstehen, wie viele Dateien miteinander in Beziehung stehen. Anstatt nur eine Datei nach der anderen zu lesen, wird erwartet, dass V4 Importe, Funktionen, Definitionen und Verweise über ein ganzes Projekt hinweg verfolgt. Dies ermöglicht es, Abhängigkeiten zu analysieren, Fehler zu erkennen, die sich über mehrere Dateien erstrecken, und Refactoring-Vorschläge zu unterbreiten, die für das gesamte System funktionieren.

Eine kurze Bewertung von Pippit: Visualisieren Sie Ihre DeepSeek-Eingaben

Pippit ist ein KI-Tool, das einen Video-Generator und ein KI-Design-Tool anbietet, um Bilder und Videos zu erstellen. Wenn Sie DeepSeek verwenden, um eine detaillierte Eingabe, Idee oder ein Skript zu schreiben, können Sie diesen Text in Pippit übertragen, um Visualisierungen oder Videos zu erstellen. Pippits fortschrittliches Text-zu-Bild- oder Video-Modell liest die Eingabe und erstellt soziale Clips, Produktpräsentationen oder visuelle Storys, die die in DeepSeek erstellten Eingaben widerspiegeln.

Pippit-Startbildschirm

Warum sollten Sie Pippit verwenden, um Ihre DeepSeek-Eingaben zu visualisieren

    1
  1. Multimodale Videogenerierung als Reaktion auf DeepSeek-Aufforderungen

Pippit ermöglicht es Ihnen, Aufforderungen, die durch DeepSeek mit einem Produktseitenlink, einer PowerPoint oder lokalen Aufnahmen erstellt wurden, einzugeben und diese sofort in Produkt-Highlights, virale TikToks, ansprechende Reels oder lustige Meme-Videos zu verwandeln. Die Plattform verwendet je nach Bedarf unterschiedliche KI-Modelle. Sie können Veo 3.1, Sora 2, Agent mode oder den Lite-Modus nutzen, jede beliebige Dauer auswählen und die Videosprache festlegen.

KI-Videogenerator auf Pippit
    1
  1. Visualisieren von KI-Bildprompts von DeepSeek für jede Anwendung

Pippit verwendet die neuesten Modelle, Nano Banana Pro und Seedream 4.5, um hochwertige, anpassbare Visualisierungen aus einfachen Textaufforderungen zu erzeugen, die von großen Sprachmodellen wie DeepSeek generiert wurden. Das KI-Design-Tool versteht Sprache sehr gut und erfasst Ihre Absicht mit scharfen Details, ausgewogener Beleuchtung und klar definierten Texturen. Sie können Referenzbilder hochladen, Seitenverhältnisse anpassen und alles, von Farben bis zu spezifischen Elementen, die Sie einbinden möchten, individuell gestalten.

AI-Design-Tool auf Pippit

Wie man DeepSeek-Aufforderungen in Videos in Pippit umwandelt

Sie können den unten stehenden Link anklicken und dann diesen drei Schritten folgen, um mit Pippit über die von Ihnen generierten DeepSeek-Aufforderungen Social-Media-Clips, Anzeigen und mehr zu erstellen:

    1
  1. Öffnen Sie den Video-Generator
  • Erstellen Sie zuerst ein Benutzerkonto bei Pippit. Sie können sich mit Ihrem Google-, TikTok- oder Facebook-Login anmelden, je nachdem, was für Sie am einfachsten ist.
  • Sobald Sie angemeldet sind, klicken Sie im Navigationsbereich links auf „Video-Generator“.
  • Nun sehen Sie ein Textfeld, in das Sie Ihre Eingabeaufforderung eingeben können, die von DeekSeek generiert wurde.
Öffnen des KI-Video-Generators auf Pippit
    2
  1. Erstellen Sie Ihr Video aus DeepSeek-Eingabeaufforderungen
  • Klicken Sie auf „Medien und mehr hinzufügen“, wenn Sie Fotos, Videoclips oder Referenzmaterial hochladen möchten.
  • Klicken Sie auf „Modell auswählen“, um je nach Art des benötigten Videos Ihr Modell auszuwählen. Der Lite-Modus eignet sich für schnelle Marketingvideos, der Agent-Modus ist ideal für kreative Inhalte, Veo 3.1 verarbeitet realistische Videos ziemlich gut, und Sora 2 dient für qualitativ hochwertigere Inhalte.
  • Wenn Sie den Agent-Modus verwenden, können Sie auf „Referenzvideo hochladen“ klicken, um der KI einen Stil zu zeigen, den Sie nachahmen möchten.
  • Öffnen Sie „Videoeinstellungen anpassen“, um die Länge anzupassen. Stellen Sie es so ein, wie es für Ihr Projekt sinnvoll ist, von 15 Sekunden bis zu einigen Minuten.
  • Sie können hier auch Ihre Sprachpräferenz auswählen, wenn Sie Voiceovers oder Untertitel wünschen.
  • Sobald alles korrekt aussieht, klicken Sie auf „Generieren“ und lassen Sie Pippit Ihr Video erstellen. Es fügt Animationen, Übergänge und Effekte basierend auf Ihrer Beschreibung im Prompt hinzu.

Probieren Sie den Prompt von DeepSeek aus: Erstellen Sie ein hochwertiges Video von einem kleinen Hund, der in einem modernen Wohnzimmer tanzt. Die Szene zeigt eine gemütliche Wohnraumgestaltung mit großen Fenstern und sanftem Morgenlicht, das natürliche Schatten auf den Holzboden wirft. Der Hund steht auf seinen Hinterbeinen und führt spielerische seitliche Hüpfbewegungen aus, dreht sich im kleinen Kreis und bewegt rhythmisch seine Pfoten in der Luft. Die Kamera führt eine langsame, handgehaltene Schwenkbewegung von links nach rechts mit leicht natürlicher Bewegung aus. Warme Farbgebung, realistische Bewegungen, fröhliche Stimmung.

Videos erstellen mit Pippit
    3
  1. Exportieren und teilen
  • Wählen Sie „Mehr bearbeiten“, um den integrierten Videoeditor zu öffnen und Ihren Videoinhalt weiter zu verbessern.
  • Klicken Sie auf „Herunterladen“, um das Video auf Ihrem Computer zu speichern.
  • Wenn Sie es direkt teilen möchten, klicken Sie auf „Veröffentlichen“, um Ihr Video automatisch zu planen und auf sozialen Medien wie TikTok, Facebook und Instagram zu posten.
Video aus Pippit exportieren

Wie man DeepSeek-Eingabeaufforderungen in Bilder in Pippit umwandelt

Befolgen Sie diese Schritte, um KI-Bildaufforderungen von DeepSeek für Poster, Flyer, Hintergrundbilder, Social-Media-Posts oder Kunstwerke zu erstellen.

    1
  1. Öffnen Sie das KI-Design-Tool
  • Klicken Sie auf „Image studio“ unter „Erstellung.“
  • Klicken Sie auf „KI-Design“ unter „Marketingbilder verbessern.“
  • Geben Sie DeepSeek an, welche Art von Bild Sie möchten, und kopieren Sie dann diese Eingabeaufforderung, um sie in Pippit zu verwenden.
Zugriff auf das KI-Design-Tool
    2
  1. Verwandeln Sie DeepSeek-Eingabeaufforderungen in Bilder
  • Klicken Sie auf die Schaltfläche „+“, wenn Sie Referenzbilder hochladen möchten. Vielleicht haben Sie Beispiele für den Stil, den Sie anstreben, oder spezifische Elemente, die Sie als Inspiration für die AI verwenden möchten. Dieser Schritt ist optional, aber hilfreich.
  • Um zwischen dem Seedream- oder dem Nano-Banana-Modell zu wählen, klicken Sie auf „Modell“. Jedes hat unterschiedliche Stärken. Wenn Sie sich nicht sicher sind, welches Sie verwenden sollen, lassen Sie es einfach auf „Auto“ und überlassen Sie Pippit die Entscheidung.
  • Wählen Sie das benötigte „Seitenverhältnis“. Quadratisch für Social-Media-Beiträge, quer für Websites, Hochformat für Telefonbildschirme – was auch immer zu Ihrem Projekt passt.
  • Klicken Sie auf „Generieren“ und warten Sie einen Moment, während Pippits AI Ihr Bild basierend auf allem, was Sie beschrieben haben, erstellt.

Versuchen Sie die Eingabeaufforderung von DeepSeek: Ein Hund rennt durch eine offene Parkfläche, Ohren im Flug, das Maul leicht geöffnet, Pfoten verschwommen durch die Geschwindigkeit. Der Hintergrund verschwimmt in Streifen aus Grün und Braun, während die Kamera Schwierigkeiten hat, die Fokussierung beizubehalten. Das Sonnenlicht blitzt in gebrochenen Flecken über den Körper. Handgehalten aufgenommen, schnelle Verschlusszeit, aber unvollkommene Nachführung, sichtbares Rauschen in schattierten Bereichen, Bewegungsunschärfe wurde beibehalten, um die Realismus zu erhalten.

Bilder auf Pippit erstellen
    3
  1. Exportieren Sie Ihr Bild
  • Überprüfen Sie das generierte Ergebnis aus der DeepSeek-Eingabeaufforderung. Sie können die Details Ihrer Eingabeaufforderung anpassen, um mehr Bilder in verschiedenen Stilen zu erzeugen.
  • Nutzen Sie die internen Werkzeuge, um den Bildinhalt basierend auf Ihren Bedürfnissen zu optimieren.
  • Klicken Sie auf „Download“, um Ihr Bild auf Ihrem lokalen Gerät zu speichern.
Speichern Sie Ihr Bild

Fazit

Lassen Sie uns zusammenfassen, was wir hier behandelt haben. Wir haben uns die aktuelle Produktlinie von DeepSeek angesehen und untersucht, was mit V4 kommt. Dieses Upgrade stellt eine bedeutende Verbesserung dar, mit seinem Kontextfenster von einer Million Token, der Engram-Speicherarchitektur und seinem klaren Fokus auf Programmieraufgaben. Diese Verbesserungen machen es fähiger, komplexe Projekte und große Datensätze zu bearbeiten. Das zeigt eindeutig, dass DeepSeek in nur wenigen Jahren einen langen Weg zurückgelegt hat. Es ist inzwischen ein unverzichtbares Werkzeug für anspruchsvolle Programmier-, Forschungs- und Problemlösungsaufgaben.

FAQ

Was ist besonders am DeepSeek V3-Modell?

Das DeepSeek V3-Modell hebt sich durch seine Fähigkeit hervor, sehr große Eingaben zu verarbeiten, mit einem Kontextfenster von bis zu 128K Tokens, das es ermöglicht, lange Dokumente oder Codebasen zu lesen und zu analysieren. Es verwendet ein Mixture-of-Experts (MoE) Design, das es schnell und effizient hält, indem nur Teile des Modells nach Bedarf aktiviert werden. V3 verfügt auch über eine hierarchische Speicherfunktion, um wichtige Informationen abzurufen, ein System zur Wahrheitsverankerung zur Fehlerreduzierung und fortschrittliche Trainingstechniken, die die Textqualität und Leistung verbessern.

Welche Modelle sind in der DeepSeek-Modellliste enthalten?

Die DeepSeek-Modellreihe umfasst V2 für verbesserten Kontext und Schlussfolgerungen, V3 mit einem 128K-Token-Fenster und MoE sowie V3.1 für tiefgehende Schlussfolgerungen. Es gibt auch das V3.2-Speciale-Modell, welches gut für Schlussfolgerungsaufgaben und Probleme auf Wettbewerbsniveau geeignet ist. Die R1-Serie konzentriert sich auf schrittweises logisches Denken.

Wie geht DeepSeek mit Aufgaben um, die einen langen Kontext erfordern?

Das DeepSeek AI-Modell bewältigt lange Kontexte durch spärliche Aufmerksamkeitsmechanismen, die nur die relevantesten Tokens auswählen, anstatt alles miteinander zu vergleichen. Dies macht die Verarbeitung von langen Kontexten viel schneller und liefert gleichzeitig hochwertige Ergebnisse. V3.2 und das kommende V4 können über eine Million Tokens verarbeiten, was bedeutet, dass sie mit gesamten Codebasen oder umfangreichen Dokumenten in einem Durchgang arbeiten können.

Wird DeepSeek V4 Open Source sein?

Bis jetzt hat DeepSeek noch nicht offiziell bestätigt, ob V4 vollständig Open Source sein wird. Allerdings hat DeepSeek ein klares Muster, seine Modelle und Gewichte der Öffentlichkeit zugänglich zu machen. Basierend auf ihren bisherigen Versionen V2, V3 und R1 ist es sehr wahrscheinlich, dass V4 dem gleichen Muster folgen wird, wenn es Mitte Februar veröffentlicht wird.

Können DeepSeek-Modelle lokal genutzt werden?

Ja, Sie können DeepSeek-Modelle lokal ausführen. V3 und V3.1 verfügen über offene Gewichte, die Sie herunterladen und auf Ihrer eigenen CPU oder GPU ausführen können. Die kleineren komprimierten Versionen von R1, wie die 7B-, 14B- und 32B-Parameter-Modelle, funktionieren auf gewöhnlicher Verbraucher-Hardware. Es wird erwartet, dass V4 auf zwei RTX 409s oder einer einzelnen RTX 5090 dank seines Mixture-of-Experts-Designs läuft.

Heiß und angesagt