DeepSeek staat op het punt zijn volgende grote model, DeepSeek V4, ook wel DeepSeek Model 1 genoemd, te lanceren. Mensen in tech- en programmeerkringen praten over wat het kan doen en wanneer het zal arriveren. De nieuwe versie wordt binnenkort verwacht en brengt verschillende veranderingen die anders kunnen aanvoelen dan eerdere releases. In het onderstaande artikel leer je de tijdlijn kennen en ontdek je de belangrijkste verbeteringen ten opzichte van eerdere versies.
Een snelle blik op de huidige DeepSeek-modellen
Laten we eerst eens alle DeepSeek-modellen bekijken, zodat je een idee hebt van wat het bedrijf daadwerkelijk heeft gecreëerd:
- 1
- DeepSeek-V2 (algemene LLM)
Dit model kwam uit in mei 2024 en heeft in totaal 236 miljard parameters, maar slechts 21 miljard zijn actief bij het verwerken van elke token. Het is opgebouwd met een Mixture of Experts, wat in feite betekent dat het model specifieke delen van zichzelf selecteert om verschillende taken af te handelen in plaats van alles tegelijk te gebruiken. Dit maakt het veel efficiënter.
DeepSeek-V2 kan context aan tot 128.000 tokens. Het is goed in algemene taalopdrachten en codering. Het beste is dat het ongeveer 42,5% minder kost om te trainen dan eerdere modellen en 93,3% minder geheugen gebruikt tijdens gebruik.
- 2
- DeepSeek-V3 (groot taalmodel met sterke redeneervaardigheden)
Dit V3-model is een grote upgrade. DeepSeek-V3 heeft 671 miljard totale parameters met 37 miljard actieve per token. Het kwam uit in december 2024 en verraste eerlijk gezegd iedereen.
Qua prestaties concurreert het met gesloten modellen zoals GPT-4. Het is echt sterk in wiskunde- en programmeertaken. Het model is open source onder de MIT-licentie, wat betekent dat iedereen het commercieel kan gebruiken of aanpassen.
- 3
- DeepSeek-V3.1 en V3.2 (updates met verbeterde contextverwerking en prestaties)
V3.1 was een soort opstapje. Niet veel openbare informatie hierover, maar het verbeterde in feite op V3.
V3.2 is het huidige vlaggenschip. Uitgebracht eind 2025. Het introduceert iets genaamd DeepSeek Sparse Attention (DSA), wat de rekencosten vermindert terwijl de kwaliteit hoog blijft, vooral voor lange contexten.
Door verbeteringen in reinforcement learning presteert V3.2 op een niveau vergelijkbaar met GPT-5. Ze hebben daadwerkelijk twee versies. De reguliere V3.2 is gebalanceerd en efficiënt. Dan is er V3.2-Speciale, die maximaal redeneert en concurreert met Gemini 3.0 Pro. De Speciale versie heeft daadwerkelijk een gouden medaille behaald in de Internationale Wiskunde Olympiade van 2025 en andere competities.
V3.2 is hun eerste model dat redeneren direct integreert in het gebruik van hulpmiddelen. Dus het kan stap voor stap denken terwijl het externe hulpmiddelen gebruikt. Best gaaf voor het bouwen van AI-agenten.
- 4
- DeepSeek-R1 (model gericht op redeneren)
R1 draait volledig om redeneren. Het maakt gebruik van puur reinforcement learning zonder aanvankelijke gesuperviseerde fine-tuning, waardoor het model via proef en error zijn eigen redeneerpatronen ontdekt. Dit is anders dan hoe de meeste modellen worden getraind.
Het model toont zelfverificatie, reflectie en genereert lange gedachteketens. Wanneer het problemen oplost, kun je daadwerkelijk het denkproces zien. Het breekt zaken stap voor stap af.
De prestaties zijn sterk. Het behaalt ongeveer 79,8% op de American Invitational Mathematics Examination en 97,3% op MATH-500. Voor coderen bereikt het een 2.029 Elo-rating bij programmeeruitdagingen. Het concurreert met het o1-model van OpenAI.
Het echt interessante deel is de kostprijs. Het draaien van DeepSeek R1 kost ongeveer $8 per miljoen tokens, terwijl o1 van OpenAI $15 per miljoen inputtokens en $60 per miljoen outputtokens kost. Dus het is veel goedkoper.
Net als de andere V3-modellen is R1 gebouwd op de DeepSeek-V3-Base en ondersteunt commerciële toepassingen onder de MIT-licentie.
Nieuws over het aanstaande AI-codeermodel: DeepSeek V4
Verwachte releasedatum van DeepSeek V4
DeepSeek streeft naar een release halverwege februari 2026 voor V4, waarschijnlijk rond 17 februari, wat overeenkomt met het Chinese Nieuwjaar. Dat is dezelfde timingstrategie die ze gebruikten met hun R1-model. Dit is nog niet officieel bevestigd door DeepSeek, maar rapporten van mensen die bekend zijn met het project wijzen op dit tijdsbestek.
Het bedrijf is er in het openbaar behoorlijk stil over geweest, maar er is veel buzz van ontwikkelaars die updates op GitHub en onderzoeksartikelen volgen. Analyse van hun FlashMLA-codebase toont een nieuwe modelidentificatie genaamd "MODEL1" die 28 keer voorkomt in hun bestanden, waarvan men denkt dat het waarschijnlijk om V4 gaat. Dus verwacht het ergens rond half februari, misschien in de komende weken, maar niets staat nog helemaal vast.
Architectuurinnovaties van DeepSeek V4
- 1
- DeepSeek mHC (Manifold-Constrained Hyper-Connections)
DeepSeek mHC is een nieuwe architectuur en trainingsmethode om grote neurale netwerken, zoals grote taalmodellen, gemakkelijker en stabieler te trainen. Het is DeepSeek's belangrijkste verbinding om die geleerde verbindingsmatrices te beperken tot een meervoud van dubbel stochastische matrices waarbij rijen en kolommen elk optellen tot 1. Dit houdt training stabiel en goed beheersbaar met hyperverbindingen door te voorkomen dat gradiënten en signaalgroottes exploderen naarmate netwerken dieper worden.
- 2
- Engram-geheugenarchitectuur voor snellere terugroepactie
Een kernonderdeel van DeepSeek V4 is Engram, een geheugensysteem dat patronen en feiten opslaat op een manier die snel kan worden opgezocht. Het model kan opgeslagen gegevens ophalen met behulp van snelle opzoekmethoden. Hierdoor kan het langere reeksen beter onthouden en blijft het redeneren consistent bij langdurige taken. Het geeft het model ook de ruimte om zich te concentreren op nieuwe informatie in plaats van oude feiten op te halen.
- 3
- Geavanceerde aandacht- en precisietechnieken
Het model brengt verbeteringen aan in hoe het aandacht besteedt aan belangrijke delen van de input. Nieuwe aandachtmethoden zoals sparse attention stellen het model in staat om lange reeksen te verwerken zonder te veel snelheid te verliezen. Precisietechnieken zoals gemengde numerieke formaten maken berekeningen nauwkeuriger terwijl er minder geheugen wordt gebruikt. Deze veranderingen zorgen ervoor dat V4 duidelijker kan redeneren over complexe problemen zoals lange codelogica of gelaagde documenten.
- 4
- Mixture-of-experts
DeepSeek V4 blijft een mixture‑of‑experts (MoE)-structuur gebruiken. In dit ontwerp heeft het model veel kleine expertmodules en activeert het alleen de meest relevante voor elke taak. Hierdoor kan het systeem opschalen zonder elk onderdeel altijd actief te maken. Met MoE blijft V4 efficiënt, zelfs naarmate het in omvang en mogelijkheden groeit. Gecombineerd met Engram stelt deze structuur het model in staat om geheugen en berekening op een krachtige manier in balans te houden.
Belangrijke capaciteiten van DeepSeek V4 ten opzichte van eerdere modellen
DeepSeek model 1 zal een grote sprong voorwaarts zijn ten opzichte van oudere versies. De belangrijkste upgrades die in dit nieuwe model worden verwacht, zijn:
- 1
- Sterke focus op coderen
DeepSeek V4 is in de eerste plaats ontwikkeld voor software-engineeringtaken. Interne tests tonen naar verluidt aan dat V4 beter presteert dan zowel Claude als GPT-modellen bij codegeneratie met lange context. Het zal zeer lange code begrijpen, debuggen en herstructureren in verschillende talen en systemen. Het model zou moeten helpen met taken zoals het opsporen van bugs, het schrijven van tests en het uitleggen van complexe code. Deze focus maakt het nuttiger voor ontwikkelaars in vergelijking met algemene AI-modellen.
- 2
- Ondersteuning voor lange context
V4 is ontworpen om in één keer met zeer grote hoeveelheden tekst of code te werken. De meeste AI-modellen raken na enkele honderdduizend tokens door hun geheugen heen. DeepSeek V4 is gepland om contexten van meer dan 1 miljoen tokens te ondersteunen, waardoor het gehele codebases, lange documenten of grote datasets kan verwerken zonder deze in kleinere stukken te verdelen. Dit verbetert de continuïteit en voorkomt dat het model eerdere informatie vergeet.
- 3
- Verbeterde rekenefficiëntie
Achter de schermen gebruikt V4 slimme technische veranderingen om te verminderen hoeveel rekenkracht nodig is. Bijvoorbeeld, het gebruikt spaarzame aandachtmethoden die zich richten op rekenkracht daar waar het het meest nodig is in plaats van bij elke mogelijke interactie. Dit betekent dat het model lange contexten kan uitvoeren met minder geheugen en energie.
- 4
- Redeneren met meerdere bestanden
Een grote verbetering is het vermogen van het model om te begrijpen hoeveel bestanden met elkaar verbonden zijn. In plaats van slechts één bestand tegelijk te lezen, wordt verwacht dat V4 imports, functies, definities en verwijzingen over een heel project bijhoudt. Hierdoor kan het afhankelijkheden analyseren, fouten identificeren die meerdere bestanden beslaan, en herstructureringssuggesties bieden die op het hele systeem werken.
Een korte review van Pippit: visualiseer je DeepSeek prompts
Pippit is een AI-tool die een videogenerator en een AI-ontwerptool biedt om afbeeldingen en video's te creëren. Dus, wanneer je DeepSeek gebruikt om een gedetailleerde prompt, idee of script te schrijven, kun je die tekst in Pippit gebruiken om visuals of video's te maken. Pippit's geavanceerde tekst-naar-afbeelding- of videomodel leest de prompt en genereert sociale clips, productpresentaties, of visuele verhalen die weerspiegelen wat je in DeepSeek hebt gemaakt.
Waarom kiezen voor Pippit om je DeepSeek prompts te visualiseren
- 1
- Multimodale videoproductie reageert op DeepSeek-prompts
Pippit laat je prompts invoeren die zijn gegenereerd door DeepSeek met een productpagina-link, PowerPoint of lokale video en transformeert deze direct in producthoogtepunten, virale TikToks, boeiende reels of grappige meme-video's. Het platform gebruikt verschillende AI-modellen, afhankelijk van wat je nodig hebt. Je kunt Veo 3.1, Sora 2, Agent-modus, of Lite-modus gebruiken, een duur selecteren en de taal van de video instellen.
- 1
- Visualiseer AI-beeldprompts van DeepSeek voor elk gebruik
Pippit gebruikt de nieuwste modellen, Nano Banana Pro en Seedream 4.5, om hoogwaardige, aanpasbare visuals te genereren vanuit eenvoudige tekstprompts die zijn gegenereerd door grote taalmodellen zoals DeepSeek. Het AI-ontwerpgereedschap begrijpt taal heel goed en vangt je intentie met scherpe details, uitgebalanceerde verlichting en goed gedefinieerde texturen. Je kunt referentiebeelden uploaden, beeldverhoudingen aanpassen en alles personaliseren, van kleuren tot specifieke elementen die je wilt opnemen.
Hoe DeepSeek-prompts in video's om te zetten in Pippit
Je kunt op de onderstaande link klikken en vervolgens deze drie stappen volgen om social media clips, advertenties en meer te maken met Pippit met gebruik van de prompts die je genereert met DeepSeek:
- 1
- Open de Videogenerator
- Eerst moet je een Pippit-account aanmaken. Je kunt je Google-, TikTok- of Facebook-login gebruiken, afhankelijk van wat het gemakkelijkst voor je is.
- Als je binnen bent, klik dan op "Videogenerator" in het navigatiepaneel aan de linkerzijde.
- Nu zie je een tekstveld waar je je prompt invoert, gegenereerd door DeekSeek
- 2
- Genereer je video uit DeepSeek-prompts
- Klik op "Media en meer toevoegen" als je foto's, videoclips of ander referentiemateriaal wilt uploaden
- Klik op "Model kiezen" om je model te selecteren op basis van het type video dat je nodig hebt Lite-modus werkt voor snelle marketingvideo's, Agent-modus is goed voor creatieve content, Veo 3.1 behandelt realistische video's vrij goed, en Sora 2 is voor meer gepolijste inhoud
- Als je Agent-modus gebruikt, kun je op "Referentievideo uploaden" klikken om de AI een stijl te laten zien die je wilt recreëren
- Open "Video-instellingen aanpassen" om de lengte aan te passen Stel het in op iets wat logisch is voor je project, variërend van 15 seconden tot een paar minuten.
- Je kunt hier ook je taalvoorkeur kiezen voor voice-overs of ondertiteling.
- Zodra alles er goed uitziet, klik op "Genereren" en laat Pippit je video maken. Het voegt animaties, overgangen en effecten toe op basis van wat je in je prompt hebt beschreven.
Probeer de prompt van DeepSeek: Genereer een hoogwaardige video van een kleine hond die in een moderne woonkamer danst. De scène is een knus huiselijk interieur met grote ramen en zacht ochtendlicht dat natuurlijke schaduwen werpt op de houten vloer. De hond staat op zijn achterpoten en voert speelse zijwaartse sprongen uit, draait in een kleine cirkel en maait ritmisch met zijn poten door de lucht. De camera maakt een langzame pan in handheldstijl van links naar rechts met een lichte natuurlijke beweging. Warme kleurtinten, realistische beweging, vreugdevolle sfeer.
- 3
- Exporteren en delen
- Selecteer "Meer bewerken" om de interne video-editor te openen en uw videocontent verder te verbeteren.
- Klik op "Downloaden" om de video op uw computer op te slaan.
- Wilt u het direct delen, klik dan op "Publiceren" om uw video automatisch te plannen en te posten op sociale mediaplatforms zoals TikTok, Facebook en Instagram.
Hoe DeepSeek-prompts omzetten naar afbeeldingen in Pippit
Volg deze stappen om AI-beeldprompts gegenereerd door DeepSeek te gebruiken voor posters, flyers, wallpapers, sociale mediaberichten of kunstwerken te maken.
- 1
- Open de AI-ontwerptool
- Klik op "Image studio" onder "Creatie."
- Klik op "AI-ontwerp" onder "Verbeter marketingafbeeldingen."
- Vertel DeepSeek wat voor soort afbeelding je wilt en kopieer die prompt om hem te gebruiken in Pippit.
- 2
- Zet DeepSeek-prompts om in afbeeldingen
- Klik op de knop \"+\" als je referentiefoto's wilt uploaden. Misschien heb je voorbeelden van de stijl die je nastreeft, of specifieke elementen die je wilt dat de AI als inspiratie gebruikt. Deze stap is optioneel maar nuttig.
- Om te kiezen tussen het Seedream- of Nano Banana-model, klik je op \"Model.\" Elk model heeft verschillende sterke punten. Als je niet zeker weet welke je moet gebruiken, laat het dan op Auto staan en laat Pippit beslissen.
- Kies de \"beeldverhouding\" die je nodig hebt. Vierkant voor sociale mediaposts, landschap voor websites, portret voor telefoonschermen, wat het beste past bij je project.
- Klik op \"Genereren\" en wacht even terwijl Pippit's AI je afbeelding maakt op basis van alles wat je hebt beschreven.
Probeer de prompt van DeepSeek: Een hond rent door een open parkgebied, oren in beweging, mond licht geopend, poten vervaagd door de snelheid. De achtergrond vervaagt tot strepen groen en bruin terwijl de camera moeite heeft om scherp te stellen. Zonnestralen flitsen in gebroken patronen over het lichaam. Geschoten met de hand, snelle sluiter maar imperfecte tracking, zichtbaar ruis in schaduwgebieden, bewegingsonscherpte intact gelaten om realisme te behouden.
- 3
- Exporteer je afbeelding
- Controleer het gegenereerde resultaat van de DeepSeek-prompt. Je kunt de details van je prompt aanpassen om meer afbeeldingen in verschillende stijlen te genereren.
- Maak gebruik van de interne tools om de inhoud van je afbeelding af te stemmen op jouw behoeften.
- Klik op "Downloaden" om je afbeelding op te slaan op je lokale apparaat.
Conclusie
Laten we samenvatten wat we hier hebben behandeld. We hebben gekeken naar de huidige line-up van DeepSeek en verkend wat er komt met V4, dat zich ontwikkelt tot een serieuze upgrade met zijn miljoen-tokens contextvenster, Engram-geheugenarchitectuur en scherpe focus op codetaken. Deze verbeteringen maken het beter geschikt voor het beheren van complexe projecten en grote datasets. Dit toont duidelijk aan dat DeepSeek in slechts een paar jaar een lange weg heeft afgelegd. Het is nu een onmisbare tool voor serieuze codering-, onderzoeks- en probleemoplossingstaken.
Veelgestelde vragen
Wat is bijzonder aan het DeepSeek v3-model?
Het DeepSeek V3-model onderscheidt zich door zijn vermogen om zeer grote invoer te verwerken, met een contextvenster tot 128K tokens, wat het mogelijk maakt om lange documenten of codebases te lezen en te analyseren. Het maakt gebruik van een Mixture-of-Experts (MoE) ontwerp, waardoor het snel en efficiënt blijft door alleen delen van het model te activeren wanneer nodig. V3 heeft ook hiërarchisch geheugen om belangrijke informatie te onthouden, een waarheid-verankeringssysteem om fouten te verminderen en geavanceerde trainingstechnieken die de tekstkwaliteit en prestaties verbeteren.
Welke modellen zijn opgenomen in de lijst van DeepSeek-modellen?
De DeepSeek modelreeks omvat V2 voor verbeterde context en redenering, V3 met een 128K-tokenvenster en MoE, en V3.1 voor diepere redenering. Er is ook V3.2- Speciale model, dat goed werkt voor redeneertaken en probleemoplossing op competitie-niveau. De R1-serie richt zich op stapsgewijze logische redenering.
Hoe behandelt DeepSeek taken met een lange context?
Het DeepSeek AI-model verwerkt lange contexten via mechanismen van sparse attention die alleen de meest relevante tokens selecteren in plaats van alles met elkaar te vergelijken. Dit maakt de verwerking van lange contexten veel sneller, terwijl je hoogwaardige output krijgt. V3.2 en de aankomende V4 kunnen meer dan een miljoen tokens verwerken, wat betekent dat ze met hele codebases of enorme documenten in één keer kunnen werken.
Zal DeepSeek V4 open source zijn?
Voorlopig heeft DeepSeek niet officieel bevestigd of V4 volledig open source zal zijn. Echter, DeepSeek heeft een duidelijk patroon van het beschikbaar stellen van zijn modellen en gewichten aan het publiek. Dus op basis van hun trackrecord met V2, V3 en R1 is het zeer waarschijnlijk dat V4 hetzelfde patroon zal volgen wanneer het in februari verschijnt.
Kunnen DeepSeek-modellen lokaal gebruikt worden?
Ja, je kunt DeepSeek-modellen lokaal draaien. V3 en V3.1 hebben open gewichten die je kunt downloaden en op je eigen CPU of GPU kunt draaien. De kleinere gedistilleerde versies van R1, zoals de 7B, 14B en 32B parametermodellen, werken op reguliere consumentenhardware. V4 zal naar verwachting draaien op twee RTX 409's of een enkele RTX 5090 dankzij het Mixture-of-Experts ontwerp.