DeepSeek akan meluncurkan model besar berikutnya, DeepSeek V4, yang juga disebut DeepSeek Model 1. Orang-orang dalam komunitas teknologi dan pemrograman sedang membicarakan apa yang mungkin dapat dilakukan dan kapan model ini akan hadir. Versi baru diharapkan segera hadir, dan menghadirkan beberapa perubahan yang mungkin terasa berbeda dari rilis sebelumnya. Dalam artikel di bawah ini, Anda akan mempelajari garis waktu dan menjelajahi peningkatan utama yang ditawarkan dibandingkan versi sebelumnya.
Sekilas tentang model DeepSeek saat ini
Mari kita lihat semua model DeepSeek terlebih dahulu, sehingga Anda memiliki gambaran tentang apa yang sebenarnya telah dibuat oleh perusahaan:
- 1
- DeepSeek-V2 (LLM umum)
Model ini dirilis pada Mei 2024 dan memiliki total 236 miliar parameter, tetapi hanya 21 miliar yang aktif saat memproses setiap token. Model ini dibangun menggunakan Mixture of Experts, yang pada dasarnya berarti model tersebut memilih bagian tertentu dari dirinya sendiri untuk menangani berbagai tugas, bukan menggunakan semuanya sekaligus. Hal ini membuatnya jauh lebih efisien.
DeepSeek-V2 dapat menangani konteks hingga 128.000 token. Model ini unggul dalam tugas-tugas bahasa umum dan pemrograman. Hal terbaiknya adalah biaya pelatihannya sekitar 42,5% lebih rendah dibandingkan model sebelumnya dan menggunakan 93,3% lebih sedikit memori saat digunakan.
- 2
- DeepSeek-V3 (model bahasa besar dengan kemampuan penalaran yang kuat)
Model V3 ini adalah peningkatan besar. DeepSeek-V3 memiliki total 671 miliar parameter dengan 37 miliar aktif per token. Model ini dirilis pada Desember 2024 dan jujur saja mengejutkan semua orang.
Dari sisi kinerja, model ini bersaing dengan model tertutup seperti GPT-4. Model ini sangat hebat dalam tugas matematika dan pemrograman. Model ini sumber terbuka di bawah lisensi MIT, yang berarti siapa pun dapat menggunakannya secara komersial atau memodifikasinya.
- 3
- DeepSeek-V3.1 dan V3.2 (pembaruan dengan penanganan konteks dan kinerja yang lebih baik)
V3.1 adalah semacam batu loncatan. Tidak banyak informasi publik tentang ini, tetapi ini pada dasarnya adalah peningkatan dari V3.
V3.2 adalah flagship saat ini. Dirilis pada akhir tahun 2025. Ini memperkenalkan sesuatu yang disebut DeepSeek Sparse Attention (DSA), yang mengurangi biaya komputasi sambil mempertahankan kualitas tinggi, terutama untuk konteks yang panjang.
Melalui peningkatan pembelajaran penguatan, V3.2 berkinerja pada level yang sebanding dengan GPT-5. Mereka sebenarnya memiliki dua versi. V3.2 reguler seimbang dan efisien. Kemudian ada V3.2-Speciale, yang memaksimalkan penalaran dan menyaingi Gemini 3.0 Pro. Versi Special sebenarnya mendapatkan tingkat performa medali emas dalam Olimpiade Matematika Internasional 2025 dan kompetisi lainnya.
V3.2 adalah model pertama mereka yang mengintegrasikan penalaran langsung ke dalam penggunaan alat. Jadi ini dapat berpikir langkah demi langkah sambil menggunakan alat eksternal. Cukup keren untuk membangun agen AI.
- 4
- DeepSeek-R1 (model berfokus pada penalaran)
R1 sepenuhnya tentang penalaran. Model ini menggunakan pembelajaran penguatan murni tanpa penyetelan lanjutan yang diawasi pada awalnya, yang memungkinkan model untuk menemukan pola pemikirannya sendiri melalui trial and error. Ini berbeda dari cara kebanyakan model dilatih.
Model ini menunjukkan kemampuan verifikasi diri, refleksi, dan menghasilkan rantai pemikiran yang panjang. Saat memecahkan masalah, Anda dapat benar-benar melihat proses berpikirnya. Model ini memecahnya langkah demi langkah.
Kinerjanya kuat. Model ini mendapatkan sekitar 79.8% dalam American Invitational Mathematics Examination dan 97.3% dalam MATH-500. Untuk pengkodean, model ini mencapai nilai Elo 2,029 dalam tantangan pemrograman. Ini bersaing dengan model o1 milik OpenAI.
Bagian yang sangat menarik adalah biaya. Menjalankan DeepSeek R1 biayanya sekitar $8 per juta token, sementara model o1 milik OpenAI biayanya $15 per juta token input dan $60 per juta token output. Jadi jauh lebih murah.
Seperti model V3 lainnya, R1 dibangun di atas DeepSeek-V3-Base dan mendukung penggunaan komersial di bawah lisensi MIT.
Berita tentang model AI coding yang akan datang: DeepSeek V4
Tanggal rilis yang diharapkan untuk DeepSeek V4
DeepSeek menargetkan rilis untuk V4 di pertengahan Februari 2026, kemungkinan sekitar tanggal 17 Februari, yang bertepatan dengan Tahun Baru Imlek. Itu adalah strategi penyelarasan waktu yang sama yang mereka gunakan dengan model R1 mereka. Ini belum secara resmi dikonfirmasi oleh DeepSeek, tetapi laporan dari orang-orang yang mengetahui proyek tersebut menunjukkan rentang waktu ini.
Perusahaan telah cukup diam tentang hal ini secara publik, tetapi ada banyak perhatian dari pengembang yang melacak pembaruan di GitHub dan makalah penelitian. Analisis kode FlashMLA mereka menunjukkan pengenal model baru bernama "MODEL1" muncul 28 kali di berbagai file mereka, yang diperkirakan orang adalah V4. Jadi pada dasarnya, harapkan itu sekitar pertengahan Februari, mungkin dalam beberapa minggu ke depan, tetapi belum ada yang benar-benar pasti.
Inovasi arsitektur DeepSeek V4
- 1
- DeepSeek mHC (Manifold-Constrained Hyper-Connections)
DeepSeek mHC adalah arsitektur dan metode pelatihan baru untuk membuat jaringan neural besar, misalnya, model bahasa besar, lebih mudah dan stabil untuk dilatih. Ini adalah koneksi kunci DeepSeek untuk membatasi matriks koneksi yang dipelajari ke manifold matriks doubly stochastic di mana baris dan kolom masing-masing berjumlah 1. Ini menjaga pelatihan tetap stabil dan terkontrol dengan hiper-koneksi dengan mencegah gradien dan magnitudo sinyal meledak saat jaringan semakin dalam.
- 2
- Arsitektur memori engram untuk pemanggilan yang lebih cepat
Bagian inti baru dari DeepSeek V4 adalah Engram, sistem memori yang menyimpan pola dan fakta dengan cara yang dapat diakses dengan cepat. Model dapat mengambil data yang tersimpan menggunakan pencarian cepat. Ini memungkinkan model mengingat urutan panjang dengan lebih baik dan menjaga konsistensi penalaran pada tugas yang lama. Ini juga membebaskan model untuk fokus pada informasi baru daripada mengingat fakta lama.
- 3
- Teknik perhatian dan presisi yang canggih
Model menambahkan perbaikan dalam cara memberikan perhatian pada bagian penting dari input. Metode perhatian baru seperti perhatian jarang memungkinkan model menangani urutan panjang tanpa terlalu banyak memperlambat kinerja. Teknik presisi seperti format numerik campuran membuat perhitungan lebih akurat sambil menggunakan memori lebih sedikit. Perubahan ini memungkinkan V4 untuk bernalar lebih jelas tentang masalah kompleks seperti logika kode panjang atau dokumen berlapis.
- 4
- Campuran-ahli
DeepSeek V4 terus menggunakan struktur campuran‑ahli (MoE). Dalam desain ini, model memiliki banyak modul ahli kecil dan hanya mengaktifkan yang paling relevan untuk setiap tugas. Ini memungkinkan sistem untuk berkembang tanpa mengaktifkan setiap bagian sepanjang waktu. Dengan MoE, V4 tetap efisien meskipun ukurannya dan kemampuannya bertambah. Ketika digabungkan dengan Engram, struktur ini memungkinkan model untuk menyeimbangkan memori dan komputasi secara efektif.
Kemampuan utama DeepSeek V4 dibandingkan model sebelumnya
Model DeepSeek 1 akan menjadi lompatan besar dari versi sebelumnya. Peningkatan utama yang diharapkan pada model baru ini termasuk:
- 1
- Fokus kuat pada pengkodean
DeepSeek V4 dibuat terutama untuk pekerjaan rekayasa perangkat lunak. Uji internal dilaporkan menunjukkan bahwa V4 mengalahkan model Claude dan GPT dalam pembuatan kode konteks panjang. Model ini akan menangani pemahaman kode yang sangat panjang, debugging, dan refactoring lintas bahasa dan sistem. Model ini seharusnya membantu dalam tugas seperti melacak bug, menulis tes, dan menjelaskan kode yang kompleks. Fokus ini membuatnya lebih berguna bagi pengembang dibandingkan dengan model AI tujuan umum.
- 2
- Dukungan untuk konteks panjang
V4 dirancang untuk membaca dan bekerja dengan jumlah teks atau kode yang sangat besar dalam satu waktu. Kebanyakan model AI kehabisan memori setelah beberapa ratus ribu token. DeepSeek V4 direncanakan mendukung konteks lebih dari 1 juta token, yang memungkinkannya menangani seluruh basis kode, dokumen panjang, atau kumpulan data besar tanpa harus memecahnya menjadi bagian yang lebih kecil. Ini meningkatkan kesinambungan dan mencegah model melupakan informasi sebelumnya.
- 3
- Efisiensi komputasi yang ditingkatkan
Di balik layar, V4 menggunakan perubahan rekayasa cerdas untuk mengurangi jumlah komputasi yang dibutuhkan. Misalnya, ia menggunakan metode perhatian sparse yang memfokuskan daya komputasi pada bagian yang paling penting daripada pada setiap interaksi yang mungkin terjadi. Ini berarti model dapat menjalankan konteks panjang dengan lebih sedikit memori dan energi.
- 4
- Penalaran multi-berkas
Satu peningkatan besar adalah kemampuan model untuk memahami bagaimana banyak file saling berhubungan. Alih-alih hanya membaca satu file pada satu waktu, V4 diharapkan dapat melacak impor, fungsi, definisi, dan referensi di seluruh proyek. Ini memungkinkannya menganalisis ketergantungan, menemukan kesalahan yang mencakup beberapa file, dan memberikan saran refaktorisasi yang berlaku untuk seluruh sistem.
Ulasan singkat tentang Pippit: visualisasikan prompt DeepSeek Anda
Pippit adalah alat AI yang menawarkan generator video dan alat desain AI untuk membuat gambar dan video. Jadi, saat Anda menggunakan DeepSeek untuk menulis prompt, ide, atau skrip yang terperinci, Anda dapat membawa teks tersebut ke Pippit untuk membuat visual atau video. Model teks-ke-gambar atau video tingkat lanjut Pippit membaca prompt dan menghasilkan klip sosial, tampilan produk, atau visual cerita yang mencerminkan prompt yang Anda buat di DeepSeek.
Mengapa memilih Pippit untuk memvisualisasikan prompt DeepSeek Anda
- 1
- Respons video multimodel sebagai tanggapan terhadap DeepSeek Prompts
Pippit memungkinkan Anda memasukkan prompt yang dihasilkan oleh DeepSeek dengan tautan halaman produk, PowerPoint, atau rekaman lokal, dan langsung mengubahnya menjadi sorotan produk, TikTok viral, reel menarik, atau video meme lucu. Platform ini menggunakan model AI yang berbeda tergantung pada apa yang Anda butuhkan. Anda dapat menggunakan Veo 3.1, Sora 2, Agent mode, atau Lite mode, memilih durasi apa pun, dan menetapkan bahasa video.
- 1
- Visualisasikan prompt gambar AI dari DeepSeek untuk berbagai keperluan
Pippit menggunakan model terbaru, Nano Banana Pro dan Seedream 4.5, untuk menghasilkan visual berkualitas tinggi yang dapat disesuaikan dari prompt teks sederhana yang dibuat oleh model bahasa besar seperti DeepSeek. Alat desain AI memahami bahasa dengan sangat baik dan menangkap maksud Anda dengan detail tajam, pencahayaan seimbang, dan tekstur yang terdefinisi dengan baik. Anda dapat mengunggah gambar referensi, menyesuaikan rasio aspek, dan menyesuaikan semuanya mulai dari warna hingga elemen spesifik yang ingin Anda sertakan.
Cara mengubah prompt DeepSeek menjadi video di Pippit
Anda dapat mengklik tautan di bawah ini dan kemudian mengikuti tiga langkah berikut untuk membuat klip media sosial, iklan, dan lainnya dengan Pippit menggunakan prompt yang Anda buat dengan DeepSeek:
- 1
- Buka generator Video
- Pertama, Anda perlu mendaftar akun Pippit. Anda dapat menggunakan login Google, TikTok, atau Facebook Anda, mana pun yang paling mudah bagi Anda.
- Setelah Anda masuk, klik "generator Video" dari panel navigasi sebelah kiri.
- Sekarang Anda akan melihat bidang teks tempat Anda memasukkan prompt yang dihasilkan oleh DeekSeek.
- 2
- Hasilkan video Anda dari prompt DeepSeek
- Tekan "Tambahkan media dan lainnya" jika Anda ingin mengunggah foto, klip video, atau bahan referensi apa pun.
- Klik "Pilih model" untuk memilih model berdasarkan jenis video yang Anda butuhkan. Mode Lite berfungsi untuk video pemasaran cepat, mode Agent bagus untuk hal-hal kreatif, Veo 3.1 menangani video realistis dengan sangat baik, dan Sora 2 digunakan untuk konten yang lebih profesional.
- Jika Anda menggunakan mode agent, Anda dapat klik "Unggah video referensi" untuk menunjukkan gaya yang ingin Anda tiru pada AI.
- Buka "Sesuaikan pengaturan video" untuk mengatur durasi. Atur sesuai dengan kebutuhan proyek Anda, mulai dari 15 detik hingga beberapa menit.
- Anda juga dapat memilih preferensi bahasa Anda di sini jika ingin menggunakan sulih suara atau teks terjemahan.
- Setelah semuanya terlihat benar, klik "Generate" dan biarkan Pippit membuat video Anda. Pippit akan menambahkan animasi, transisi, dan efek berdasarkan deskripsi yang Anda berikan dalam prompt Anda.
Coba prompt dari DeepSeek: Hasilkan video berkualitas tinggi dari seekor anjing kecil yang menari di ruang tamu modern. Suasana adalah interior rumah yang nyaman dengan jendela besar dan sinar matahari pagi yang lembut menciptakan bayangan alami di lantai kayu. Anjing tersebut berdiri di atas kedua kaki belakangnya dan melakukan lompatan menyamping yang menyenangkan, berputar dalam lingkaran kecil, dan menggerakkan kakinya di udara secara berirama. Kamera menggunakan gaya pan lambat dengan gerakan alami dari kiri ke kanan. Grading warna hangat, gerakan realistis, suasana riang.
- 3
- Ekspor dan bagikan
- Pilih "Edit more" untuk membuka editor video internal dan meningkatkan konten video Anda lebih lanjut.
- Klik "Download" untuk menyimpan video ke komputer Anda.
- Jika Anda ingin membagikannya langsung, klik "Publish" untuk otomatis menjadwalkan dan memposting video Anda di platform media sosial seperti TikTok, Facebook, dan Instagram.
Cara mengubah prompt DeepSeek menjadi gambar di Pippit
Ikuti langkah-langkah ini untuk mengubah prompt gambar AI yang dihasilkan oleh DeepSeek untuk poster, selebaran, wallpaper, postingan media sosial, atau pembuatan karya seni.
- 1
- Buka alat desain AI
- Klik "Image studio" di bawah "Creation."
- Klik "AI design" di bawah "Level up marketing images."
- Beri tahu DeepSeek jenis gambar yang Anda inginkan, lalu salin prompt tersebut dan gunakan di Pippit.
- 2
- Ubah prompt DeepSeek menjadi gambar
- Klik tombol \"+\" jika Anda ingin mengunggah gambar referensi. Mungkin Anda memiliki contoh gaya yang Anda inginkan, atau elemen spesifik yang Anda ingin AI gunakan sebagai inspirasi. Langkah ini opsional tetapi membantu.
- Untuk memilih antara model Seedream atau Nano Banana, klik \"Model.\" Masing-masing memiliki keunggulan yang berbeda. Jika Anda tidak yakin mana yang akan digunakan, biarkan saja di Auto dan biarkan Pippit memutuskan.
- Pilih \"rasio aspek\" yang Anda butuhkan. Kotak untuk posting media sosial, landscape untuk situs web, potret untuk layar ponsel, apa pun yang sesuai dengan proyek Anda.
- Klik \"Generate\" dan tunggu sebentar hingga AI Pippit membuat gambar Anda berdasarkan semua yang Anda deskripsikan.
Coba prompt dari DeepSeek: Seekor anjing berlari melintasi ruang taman terbuka, telinga terangkat di tengah gerakan, mulut sedikit terbuka, kaki tampak blur karena kecepatan. Latar belakangnya memanjang menjadi garis-garis hijau dan cokelat saat kamera berusaha untuk tetap fokus. Sinar matahari memantul di tubuh dalam tambalan yang terputus-putus. Diambil dengan tangan, rana cepat tapi pelacakan tidak sempurna, terlihat noise di area bayangan, blur gerakan dipertahankan untuk menjaga realisme.
- 3
- Ekspor gambar Anda
- Periksa hasil yang dihasilkan dari prompt DeepSeek. Anda dapat menyesuaikan detail prompt Anda untuk menghasilkan lebih banyak gambar dalam berbagai gaya.
- Manfaatkan alat di dalamnya untuk menyempurnakan konten gambar Anda berdasarkan kebutuhan Anda.
- Klik "Download" untuk menyimpan gambar Anda ke perangkat lokal Anda.
Kesimpulan
Jadi mari kita ulas kembali apa yang telah kita bahas di sini. Kita telah melihat jajaran saat ini dari DeepSeek dan mengeksplorasi apa yang akan datang dengan V4, yang tampaknya menjadi peningkatan serius dengan jendela konteks token berjuta-juta, arsitektur memori Engram, dan fokus tajam pada tugas pengkodean. Perbaikan ini membuatnya lebih mampu menangani proyek kompleks dan kumpulan data besar. Hal ini menunjukkan dengan jelas bahwa DeepSeek telah berkembang pesat hanya dalam beberapa tahun. Saat ini, ini adalah alat andalan untuk pengkodean serius, penelitian, dan tugas pemecahan masalah.
Pertanyaan Umum
Apa yang membuat model DeepSeek v3 istimewa?
Model DeepSeek V3 menonjol karena kemampuannya menangani input yang sangat besar, dengan jendela konteks hingga 128K token, yang memungkinkannya membaca dan melakukan penalaran terhadap dokumen panjang atau basis kode. Ini menggunakan desain Mixture-of-Experts (MoE), yang menjadikannya cepat dan efisien dengan hanya mengaktifkan bagian model yang diperlukan. V3 juga memiliki memori hierarkis untuk mengingat informasi penting, sistem penahan kebenaran untuk mengurangi kesalahan, dan teknik pelatihan canggih yang meningkatkan kualitas serta kinerja teks.
Model apa saja yang termasuk dalam daftar model DeepSeek?
Lineup model DeepSeek mencakup V2 untuk konteks dan penalaran yang lebih baik, V3 dengan jendela 128K-token dan MoE, serta V3.1 untuk penalaran yang lebih mendalam. Ada juga model V3.2- Speciale, yang bekerja dengan baik untuk tugas-tugas penalaran dan pemecahan masalah tingkat kompetisi. Seri R1 berfokus pada penalaran logis langkah demi langkah.
Bagaimana DeepSeek menangani tugas konteks panjang?
Model AI DeepSeek menangani konteks panjang melalui mekanisme perhatian jarang yang hanya memilih token yang paling relevan, daripada membandingkan semua dengan semua. Hal ini membuat pemrosesan konteks panjang jauh lebih cepat, sambil memberikan hasil yang berkualitas tinggi. V3.2 dan V4 yang akan datang dapat memproses lebih dari satu juta token, yang berarti mereka dapat menangani seluruh basis kode atau dokumen besar dalam satu proses.
Apakah DeepSeek V4 akan menjadi open source?
Saat ini, DeepSeek belum secara resmi mengkonfirmasi apakah V4 sepenuhnya akan menjadi open source. Namun, DeepSeek memiliki pola yang jelas dalam menyediakan model dan bobotnya untuk publik. Jadi, berdasarkan rekam jejak mereka dengan V2, V3, dan R1, sangat mungkin V4 akan mengikuti pola yang sama saat dirilis pada pertengahan Februari.
Dapatkah model DeepSeek digunakan secara lokal?
Ya, Anda dapat menjalankan model DeepSeek secara lokal. V3 dan V3.1 memiliki bobot terbuka yang dapat Anda unduh dan jalankan pada CPU atau GPU Anda sendiri. Versi distilasi yang lebih kecil dari R1, seperti model parameter 7B, 14B, dan 32B, dapat berjalan pada perangkat keras konsumen biasa. V4 diperkirakan dapat berjalan pada dual RTX 4090 atau satu RTX 5090 berkat desain Mixture-of-Experts.