DeepSeek håller på att lansera sin nästa stora modell, DeepSeek V4, även kallad DeepSeek Model 1. Människor inom teknik- och kodningskretsar pratar om vad den kan göra och när den kommer att släppas. Den nya versionen förväntas komma snart och medför flera förändringar som kan kännas annorlunda jämfört med tidigare utgåvor. I artikeln nedan får du veta tidslinjen och utforska de viktigaste uppgraderingarna den erbjuder jämfört med tidigare versioner.
En snabb titt på aktuella DeepSeek-modeller
Vi ska först ta en titt på alla DeepSeek-modeller så att du får en uppfattning om vad företaget faktiskt har skapat:
- 1
- DeepSeek-V2 (generell LLM)
Den här modellen lanserades i maj 2024 och har totalt 236 miljarder parametrar, men endast 21 miljarder är aktiva när varje token bearbetas. Den är byggd med hjälp av Mixture of Experts, vilket i princip betyder att modellen väljer specifika delar av sig själv för att hantera olika uppgifter istället för att använda allt samtidigt. Detta gör den mycket mer effektiv.
DeepSeek-V2 kan hantera sammanhang med upp till 128,000 tokens. Den är bra på generella språk- och kodningsuppgifter. Det bästa är att den kostar cirka 42,5% mindre att träna än tidigare modeller och använder 93,3% mindre minne under användning.
- 2
- DeepSeek-V3 (stor språkmodell med starka resonemangsförmågor)
Denna V3-modell är en stor uppgradering. DeepSeek-V3 har totalt 671 miljarder parametrar, varav 37 miljarder är aktiva per token. Den släpptes i december 2024 och överraskade ärligt talat alla.
Prestandamässigt konkurrerar den med slutna modeller som GPT-4. Den är riktigt stark på matematik- och kodningsuppgifter. Modellen är öppen källkod under MIT-licensen, vilket betyder att vem som helst kan använda den kommersiellt eller modifiera den.
- 3
- DeepSeek-V3.1 och V3.2 (uppdateringar med förbättrad kontexthantering och prestanda)
V3.1 var en slags första steg. Inte mycket offentlig information om den, men den förbättrar i grunden V3.
V3.2 är den nuvarande flaggskeppsmodellen. Släpptes i slutet av 2025. Den introducerar något som kallas DeepSeek Sparse Attention (DSA), vilket minskar beräkningskostnaderna samtidigt som kvaliteten hålls hög, särskilt för långa kontexter.
Genom förbättringar av förstärkningsinlärning presterar V3.2 på en nivå jämförbar med GPT-5. De har faktiskt två versioner. Den vanliga V3.2 är balanserad och effektiv. Sen finns det V3.2-Speciale, som maximerar resonemang och konkurrerar med Gemini 3.0 Pro. Specialversionen fick faktiskt en guldmedaljnivåprestation i den internationella matematikolympiaden 2025 och andra tävlingar.
V3.2 är deras första modell som integrerar resonemang direkt i verktygsanvändning. Så den kan tänka steg för steg medan den använder externa verktyg. Ganska häftigt för att bygga AI-agenter.
- 4
- DeepSeek-R1 (resoneringsfokuserad modell)
R1 handlar helt om resonemang. Den använder ren förstärkningsinlärning utan övervakad finjustering till en början, vilket låter modellen upptäcka sina egna resonemönster genom försök och misstag. Detta skiljer sig från hur de flesta modeller tränas.
Modellen visar självverifiering, reflektion och genererar långa tankekedjor. När den löser problem kan du faktiskt se dess tänkande process. Den bryter ner saker steg för steg.
Prestandan är stark. Den får omkring 79,8 % på American Invitational Mathematics Examination och 97,3 % på MATH-500. För kodning når den ett Elo-rating på 2,029 på programmeringsutmaningar. Den tävlar med OpenAIs o1-modell.
Det riktigt intressanta är kostnaden. Att köra DeepSeek R1 kostar cirka 8 USD per miljon tokens, medan OpenAIs o1 kostar 15 USD per miljon input-tokens och 60 USD per miljon output-tokens. Så det är mycket billigare.
Precis som de andra V3-modellerna är R1 byggd ovanpå DeepSeek-V3-Base och stöder kommersiell användning under MIT-licensen.
Nyheter om den kommande AI-modellen för kodning: DeepSeek V4
Förväntat releasedatum för DeepSeek V4
DeepSeek siktar på en release i mitten av februari 2026 för V4, troligen runt den 17 februari, vilket sammanfaller med det kinesiska nyåret. Det är samma lanseringsstrategi som de använde för sin R1-modell. Detta har ännu inte officiellt bekräftats av DeepSeek, men rapporter från personer som känner till projektet pekar på denna tidsram.
Företaget har hållit det ganska tyst offentligt, men det har varit mycket prat bland utvecklare som spårar uppdateringar på GitHub och forskningsartiklar. Analys av deras FlashMLA-kodbas visar en ny modellidentifierare kallad "MODEL1" som förekommer 28 gånger i deras filer, vilket folk tror troligen är V4. Så förvänta dig det i princip någon gång runt mitten av februari, kanske inom de närmaste veckorna, men inget är helt fastställt ännu.
Arkitekturinnovationer för DeepSeek V4
- 1
- DeepSeek mHC (Manifold-Constrainted Hyper-Connections)
DeepSeek mHC är en ny arkitektur och träningsmetod för att göra stora neurala nätverk, exempelvis stora språkmodeller, enklare och mer stabila att träna. Det är DeepSeeks nyckelanslutning för att begränsa de inlärda anslutningsmatriserna till ett mångfald av dubbelt stokastiska matriser där rader och kolumner summerar till 1. Detta håller träningen stabil och väluppfostrad med hyperanslutningar genom att förhindra att gradienter och signalamplituder exploderar när nätverken blir djupare.
- 2
- Engramminnesarkitektur för snabbare hämtning av minnen
En kärnny del av DeepSeek V4 är Engram, ett minnessystem som lagrar mönster och fakta på ett sätt som kan hämtas snabbt. Modellen kan hämta lagrad data med snabba sökningar. Detta gör att den kan komma ihåg långa sekvenser bättre och hålla resonemanget konsekvent över långvariga uppgifter. Den frigör också modellen för att fokusera på ny information istället för att minnas gamla fakta.
- 3
- Avancerade tekniker för uppmärksamhet och precision
Modellen lägger till förbättringar i hur den lägger fokus på viktiga delar av indata. Nya uppmärksamhetsmetoder som gles uppmärksamhet gör att modellen kan hantera långa sekvenser utan att sakta ner för mycket. Precisionstekniker som blandade numeriska format gör beräkningar mer exakta samtidigt som de använder mindre minne. Dessa förändringar gör att V4 resonerar mer tydligt kring komplexa problem som lång kodlogik eller lagerdokument.
- 4
- Blandning-av-experter
DeepSeek V4 fortsätter att använda en blandning-av-experter (MoE) struktur. I denna design har modellen många små expertmoduler och aktiverar endast de mest relevanta för varje uppgift. Detta gör att systemet kan skala upp utan att aktivera varje del hela tiden. Med MoE förblir V4 effektiv även när den växer i storlek och kapacitet. Kombinerat med Engram gör denna struktur att modellen kan balansera minne och beräkning på ett kraftfullt sätt.
Nyckelfunktioner hos DeepSeek V4 jämfört med tidigare modeller
DeepSeek-modell 1 kommer att vara ett stort steg från äldre versioner. De huvudsakliga uppgraderingarna som förväntas i denna nya modell inkluderar:
- 1
- Starkt fokus på kodning
DeepSeek V4 är främst utvecklad för arbete inom mjukvaruingenjörskonst. Interna tester visar enligt uppgift att V4 överträffar både Claude- och GPT-modeller i långkontextuell kodgenerering. Den kommer att hantera mycket lång kodförståelse, felsökning och omstrukturering över språk och system. Modellen bör hjälpa med uppgifter som att spåra buggar, skriva tester och förklara komplex kod. Denna inriktning gör den mer användbar för utvecklare jämfört med generella AI-modeller.
- 2
- Stöd för lång kontext
V4 är utformad för att läsa och arbeta med mycket stora mängder text eller kod i ett enda steg. De flesta AI-modeller tar slut på minne efter några hundratusen tokens. DeepSeek V4 är planerad att stödja kontexter med långt över 1 miljon tokens, vilket möjliggör hantering av hela kodbaser, långa dokument eller stora datamängder utan att behöva delas in i mindre delar. Detta förbättrar kontinuiteten och förhindrar att modellen glömmer tidigare information.
- 3
- Förbättrad beräkningseffektivitet
Bakom kulisserna använder V4 smarta tekniska förändringar för att minska mängden beräkningar som behövs. Till exempel används metoder för gles uppmärksamhet som fokuserar datorkraften där den behövs mest istället för på alla möjliga interaktioner. Detta innebär att modellen kan köra långa kontexter med mindre minne och energi.
- 4
- Flerfilresonemang
En stor uppgradering är modellens förmåga att förstå hur många filer relaterar till varandra. Istället för att bara läsa en fil åt gången förväntas V4 kunna spåra importer, funktioner, definitioner och referenser över ett helt projekt. Detta gör att den kan analysera beroenden, upptäcka fel som sträcker sig över flera filer och erbjuda omstruktureringsförslag som fungerar i hela systemet.
En kort recension av Pippit: visualisera dina DeepSeek-frågeställningar
Pippit är ett AI-verktyg som erbjuder en videogenerator och ett AI-designverktyg för att skapa bilder och videor. Så när du använder DeepSeek för att skriva ett detaljerat prompt, idé eller manus kan du ta den texten till Pippit för att skapa visuella presentationer eller videoklipp. Pippits avancerade text-till-bild- eller videomodell läser prompten och genererar sociala klipp, produktpresentationer eller visuella berättelser som speglar de prompt du skapade i DeepSeek.
Varför välja Pippit för att visualisera dina DeepSeek-frågeställningar
- 1
- Multimodal videogenerering svarar på DeepSeek-prompter
Pippit låter dig mata in prompter genererade av DeepSeek med en produktens sida, PowerPoint eller lokala videoklipp och omedelbart förvandla dem till produktförevisningar, virala TikToks, fängslande reels eller roliga meme-videor. Plattformen använder olika AI-modeller beroende på dina behov. Du kan använda Veo 3.1, Sora 2, Agentläge eller lättläge, välja vilken varaktighet som helst och ställa in videons språk.
- 1
- Visualisera AI-bildprompter från DeepSeek för alla ändamål
Pippit använder de senaste modellerna, Nano Banana Pro och Seedream 4.5, för att generera högkvalitativa, anpassningsbara visualiseringar från enkla textprompter genererade av stora språkmodeller som DeepSeek. AI-desigverktyget förstår språk mycket väl och fångar din avsikt med skarpa detaljer, balanserad belysning och väl definierade texturer. Du kan ladda upp referensbilder, justera bildförhållanden och anpassa allt från färger till specifika element du vill ha med.
Hur du omvandlar DeepSeek-promptar till videor i Pippit
Du kan klicka på länken nedan och följa dessa tre steg för att skapa klipp för sociala medier, annonser och mer med Pippit genom att använda de promptar du skapar med DeepSeek:
- 1
- Öppna Videogeneratorn
- Först behöver du registrera ett Pippit-konto. Du kan använda ditt Google-, TikTok- eller Facebook-konto, beroende på vad som är enklast för dig.
- När du är inloggad klickar du på "Videogenerator" från navigeringspanelen till vänster.
- Nu ser du ett textfält där du anger din prompt genererad av DeekSeek
- 2
- Generera din video från DeepSeek-prompt
- Klicka på "Lägg till media och mer" om du vill ladda upp foton, videoklipp eller något referensmaterial
- Klicka på "Välj en modell" för att välja din modell baserat på vilken typ av video du behöver Lite-läge fungerar för snabba marknadsföringsvideor, Agent-läge är bra för kreativa saker, Veo 3.1 hanterar realistiska videor ganska bra och Sora 2 är för mer polerat innehåll
- Om du använder Agent-läge kan du klicka på "Ladda upp referensvideo" för att visa AI en stil du vill återskapa
- Öppna "Anpassa videoinställningar" för att justera längden Ställ in det på vad som är logiskt för ditt projekt, från 15 sekunder till några minuter.
- Du kan även välja din språkpreferens här om du vill ha berättarröst eller undertexter.
- När allt ser bra ut, klicka på "Generera" och låt Pippit skapa din video. Det lägger till animationer, övergångar och effekter baserat på vad du beskrev i din prompt.
Prova prompten från DeepSeek: Skapa en högkvalitativ video av en liten hund som dansar i ett modernt vardagsrum. Scenen är ett mysigt hem med stora fönster och mjukt morgonljus som kastar naturliga skuggor på trägolvet. Hunden står på bakbenen och gör lekfulla hopp från sida till sida, snurrar i en liten cirkel och rör på sig rytmiskt i luften med tassarna. Kameran använder en långsam, handhållet panorering från vänster till höger med lätt naturlig rörelse. Varm färggradering, realistiska rörelser, glad atmosfär.
- 3
- Exportera och dela
- Välj "Redigera mer" för att öppna den interna videoredigeraren och ytterligare förbättra ditt videoinnehåll.
- Klicka på "Ladda ner" för att spara videon på din dator.
- Om du vill dela den direkt, klicka på "Publicera" för att automatiskt schemalägga och publicera din video på sociala medieplattformar som TikTok, Facebook och Instagram.
Hur man förvandlar DeepSeek-promptar till bilder i Pippit
Följ dessa steg för att förvandla AI-bildpromptar som genererats av DeepSeek för affischer, flygblad, bakgrundsbilder, inlägg i sociala medier eller konstverksskapande.
- 1
- Öppna AI-designverktyget
- Klicka på "Bildstudio" under "Skapande."
- Klicka på "AI-design" under "Förbättra marknadsföringsbilder."
- Berätta för DeepSeek vilken typ av bild du vill ha och kopiera sedan den prompten och använd den i Pippit.
- 2
- Omvandla DeepSeek-promptar till bilder
- Klicka på knappen \"+\" om du vill ladda upp referensbilder. Kanske har du exempel på den stil du är ute efter, eller specifika element du vill att AI:n ska använda som inspiration. Detta steg är valfritt men hjälpsamt.
- För att välja mellan Seedream- eller Nano Banana-modellen, klicka på \"Model.\" Var och en har olika styrkor. Om du inte är säker på vilken du ska använda, låt det bara vara på Auto och låt Pippit bestämma.
- Välj det \"bildförhållande\" du behöver. Kvadratisk för inlägg på sociala medier, landskap för webbplatser, porträtt för telefonskärmar, vad som än passar ditt projekt.
- Klicka på \"Generate\" och vänta en stund medan Pippits AI skapar din bild baserat på allt du har beskrivit.
Prova mallen från DeepSeek: En hund springer över en öppen park, öronen lyfta i rörelse, munnen något öppen, tassarna suddiga av hastigheten. Bakgrunden sträcker sig i strimmor av grönt och brunt när kameran kämpar för att hålla fokus. Solljus fladdrar över kroppen i trasiga fläckar Filmad med handhållning, snabb slutartid men ofullständig spårning, synligt brus i skuggade områden, rörelseoskärpa lämnad intakt för att bevara realismen
- 3
- Exportera din bild
- Kontrollera det genererade resultatet från DeepSeek-prompten Du kan justera detaljer i din prompt för att generera fler bilder i olika stilar
- Använd de interna verktygen för att finjustera ditt bildinnehåll baserat på dina behov
- Klicka på \"Ladda ner\" för att spara din bild till din lokala enhet
Slutsats
Så låt oss sammanfatta vad vi gick igenom här. Vi tittade på DeepSeeks nuvarande sortiment och utforskade vad som kommer med V4, som ser ut att bli en seriös uppgradering med dess miljontoken-kontextfönster, Engram-minnesarkitektur och laserfokus på kodningsuppgifter. Dessa förbättringar gör den mer kapabel att hantera komplexa projekt och stora datamängder. Det här visar tydligt att DeepSeek har kommit långt på bara ett par år. Den är nu ett oumbärligt verktyg för seriös kodning, forskning och problemlösande uppgifter.
Vanliga frågor
Vad är speciellt med DeepSeek v3-modellen?
DeepSeek V3-modellen utmärker sig för sin förmåga att hantera mycket stora inmatningar, med ett kontextfönster på upp till 128K token, vilket gör att den kan läsa och resonera över långa dokument eller kodbaser. Den använder en Mixture-of-Experts (MoE)-design som håller den snabb och effektiv genom att endast aktivera delar av modellen vid behov V3 har också hierarkiskt minne för att minnas viktig information, ett sanning-ankringssystem för att minska fel och avancerade träningstekniker som förbättrar textkvaliteten och prestandan
Vilka modeller ingår i DeepSeek-modellistan?
DeepSeek-modelluppsättningen inkluderar V2 för förbättrat kontext och resonemang, V3 med ett 128K-tokenfönster och MoE, samt V3.1 för djupare resonemang Det finns också V3.2- Speciale-modellen, som fungerar bra för resonemangsuppgifter och problemlösning på tävlingsnivå R1-serien fokuserar på steg-för-steg logiskt resonemang
Hur hanterar DeepSeek långkontext-uppgifter?
DeepSeek AI-modellen hanterar långkontext genom glesa uppmärksamhetsmekanismer som väljer endast de mest relevanta token istället för att jämföra allt med allt Detta gör långkontextbearbetning mycket snabbare, samtidigt som du får högkvalitativa resultat V3.2 och den kommande V4 kan bearbeta över en miljon tokens, vilket innebär att de kan arbeta med hela kodbaser eller massiva dokument på en gång
Kommer DeepSeek V4 att vara öppen källkod?
Just nu har DeepSeek inte officiellt bekräftat om V4 kommer att vara helt öppen källkod. Emellertid har DeepSeek ett tydligt mönster av att göra sina modeller och vikter tillgängliga för allmänheten. Så baserat på deras tidigare arbete med V2, V3 och R1 är det ganska sannolikt att V4 kommer att följa samma mönster när den släpps i mitten av februari.
Kan DeepSeek-modeller användas lokalt?
Ja, du kan köra DeepSeek-modeller lokalt. V3 och V3.1 har öppna vikter som du kan ladda ner och köra på din egen CPU eller GPU. De mindre distillerade versionerna av R1, såsom modellerna med 7B, 14B och 32B parametrar, fungerar på vanlig konsumenthårdvara. V4 förväntas köras på dubbla RTX 409s eller en enda RTX 5090 tack vare dess Mixture-of-Experts-design.