Teknologi DSA DeepSeek V3.2 Tantang Hegemoni OpenAI dan Google

- 4 Desember 2025 - 07:27

DeepSeek, startup AI asal China, meluncurkan model V3.2 yang diklaim lebih efisien dari GPT-5 dan Gemini 3 Pro dengan teknologi DeepSeek Sparse Attention (DSA). Model ini mencatat skor kompetitif dalam berbagai benchmark, bahkan mengungguli kompetitor dalam beberapa tes pemrograman dan pengembangan software, menandai semakin ketatnya persaingan AI global.


Fokus Utama:

■ DeepSeek V3.2 mengandalkan teknologi DeepSeek Sparse Attention (DSA) untuk mencapai efisiensi komputasi yang lebih tinggi dalam memproses teks panjang, sebuah klaim yang langsung menyasar titik lemah biaya operasional model AI besar saat ini.
■ Model ini menunjukkan kemampuan yang sangat kompetitif dalam serangkaian benchmark standar, dengan keunggulan mencolok dalam tes pemecahan masalah pengembangan software dunia nyata (SWE Multilingual), mengindikasikan kekuatan di bidang teknis dan pemrograman.
■ Pencapaian V3.2 didukung oleh peningkatan signifikan dalam anggaran post-training (10% dari total biaya) dan penggunaan ribuan synthetic environments serta skenario berbasis GitHub untuk melatih agen otonom, mencerminkan pendekatan pelatihan yang lebih matang dan berorientasi pada aplikasi praktis.


Dalam perlombaan kecerdasan buatan yang semakin panas,muncul penantang baru dari China yang siap mengganggu dominasi raksasa teknologi AS. DeepSeek, startup yang selama ini berada di bawah radar, baru saja meluncurkan model teranyarnya: DeepSeek V3.2. Yang membuat peluncuran ini istimewa bukan hanya klaim bahwa model ini setara dengan GPT-5 dari OpenAI atau Gemini 3 Pro dari Google. Lebih dari itu, DeepSeek mengklaim keunggulan efisiensi biaya dan pemrosesan, didukung oleh skor benchmark yang nyaris menyentuh—bahkan melampaui—para pendahulunya di beberapa bidang spesifik seperti pemrograman. Inikah titik balik dalam peta kekuatan AI global?

Persaingan di dunia model kecerdasan buatan besar (Large Language Models/LLM) tidak lagi menjadi monopoli perusahaan-perusahaan Silicon Valley. DeepSeek, startup asal China, secara resmi meluncurkan DeepSeek V3.2—model terbaru yang dirancang untuk bersaing langsung dengan GPT-5 milik OpenAI dan Gemini 3 Pro dari Google. Peluncuran ini bukan hanya sekadar pembaruan versi, tetapi sebuah pernyataan strategis bahwa inovasi AI dengan efisiensi tinggi bisa datang dari luar pusat teknologi konvensional.

DeepSeek V3.2 hadir dalam dua varian: versi “reguler” yang difungsikan sebagai asisten penalaran sehari-hari, dan versi “Speciale” yang dikhususkan untuk performa tinggi. Menurut pengembangnya, model ini dibuat untuk menjawab tiga kelemahan utama model AI open-source saat ini: inefisiensi dalam memproses teks panjang, kapabilitas agen otonom yang lemah, dan investasi pasca-pelatihan (post-training) yang tidak memadai.

Kunci Inovasi: DeepSeek Sparse Attention (DSA)

Jantung dari klaim efisiensi DeepSeek V3.2 terletak pada teknologi yang mereka sebut DeepSeek Sparse Attention (DSA). Teknologi ini memungkinkan model untuk secara cerdas memilih dan memproses hanya bagian-bagian penting dari riwayat teks yang panjang, alih-alih menghabiskan sumber daya komputasi untuk seluruh token. Pendekatan “sparse” ini diklaim mampu secara signifikan memangkas biaya komputasi tanpa mengorbankan kualitas output, sebuah terobosan krusial mengingat biaya pelatihan dan inferensi AI skala besar semakin membengkak.

DeepSeek mengakui mereka tidak membagikan rincian persentase peningkatan kecepatan, namun menegaskan DSA dapat “mempercepat pemrosesan input yang panjang secara signifikan.” Untuk mendukung kinerja optimal, perusahaan ini juga meningkatkan anggaran post-training hingga 10% dari total biaya, sebuah peningkatan sepuluh kali lipat dibanding praktik dua tahun lalu yang hanya 1%.

Bukti di Lapangan: Skor Benchmark yang Mengagetkan

Klaim kemampuan tidak datang tanpa bukti. DeepSeek V3.2 diuji di berbagai platform benchmark ternama dengan hasil yang kompetitif, bahkan mengungguli di bidang tertentu:

· Pada tes matematika AIME 2025, V3.2 mencetak skor 93.1%, berada di belakang GPT-5 (94.6%) namun di atas Gemini 3 Pro (90.7%).
· Dalam tes pemrograman LiveCodeBench, V3.2 meraih 83.3%, masih di bawah kedua kompetitor utamanya.
· Namun, kejutan muncul di tes SWE Multilingual yang mengukur kemampuan menyelesaikan masalah pengembangan software nyata dari GitHub. V3.2 berhasil menyelesaikan 70.2% masalah, jauh mengungguli GPT-5 (55.3%) dan mendekati Gemini 3 Pro.
· Di Terminal Bench 2.0, V3.2 (46.4%) juga menunjukkan performa lebih baik daripada GPT-5 (35.2%).

Hasil ini menunjukkan bahwa meski mungkin belum unggul secara keseluruhan, V3.2 memiliki kelebihan yang sangat menonjol dalam pemecahan masalah teknis dan pemrograman yang kompleks.

Pencapaian ini didukung oleh metodologi pelatihan yang matang. Tim DeepSeek membangun model khusus untuk berbagai tugas (matematika, pemrograman, logika, agen) sebagai landasan data pelatihan akhir. Mereka juga menciptakan lebih dari 1.800 synthetic environments—simulasi virtual—dan ribuan skenario berbasis masalah nyata di GitHub untuk melatih kemampuan agen otonom model secara komprehensif.

Meski membawa angin segar, DeepSeek tetap realistis. Perusahaan mengakui model V3.2 masih memiliki kekurangan dalam hal keluasan pengetahuan (knowledge) dan efisiensi token dibandingkan model terkemuka lainnya. Namun, kehadirannya telah menambah dinamika dan pilihan dalam pasar AI global yang semakin jenuh. Dengan klaim efisiensi biaya yang lebih baik—laporan terpisah menyebut biaya pelatihan DeepSeek bisa 300 kali lebih murah daripada ChatGPT—V3.2 berpotensi menjadi pilihan menarik bagi pengembang dan perusahaan yang mengutamakan rasio performa-biaya.

Peluncuran DeepSeek V3.2 adalah pengingat bahwa inovasi dalam perlombaan AI bisa datang dari mana saja. Persaingan yang semakin ketat antara AS dan China di bidang teknologi tinggi kini telah merambah hingga ke ranah model bahasa paling mutakhir, dan konsumen akhir yang akan diuntungkan dengan hadirnya pilihan yang lebih beragam dan efisien.


Digionary:

● Benchmark: Serangkaian tes atau pengukuran standar yang digunakan untuk mengevaluasi dan membandingkan performa suatu sistem, dalam hal ini model kecerdasan buatan.
● DeepSeek Sparse Attention (DSA): Mekanisme perhatian (attention) dalam model AI yang dirancang oleh DeepSeek untuk memproses input teks panjang dengan lebih efisien, dengan hanya berfokus pada bagian-bagian kunci daripada keseluruhan teks.
● Post-training: Fase pelatihan lanjutan sebuah model AI setelah menyelesaikan pelatihan awal (pre-training), bertujuan untuk menyempurnakan kemampuan, menyesuaikan dengan tugas tertentu, meningkatkan keamanan, atau mengurangi bias.
● Synthetic Environments: Lingkungan atau dunia simulasi yang dibuat secara digital (bukan data nyata) untuk melatih dan menguji kemampuan agen AI dalam melakukan tugas atau menavigasi skenario tertentu.
● Token: Unit terkecil data yang diproses oleh model bahasa. Bisa berupa kata, sub-kata, atau karakter. Efisiensi token berkaitan dengan seberapa optimal model menggunakan token untuk menghasilkan pemahaman dan output.

#DeepSeek#DeepSeekV32 #AI #KecerdasanBuatan #GPT5 #Gemini3Pro #OpenAI #Google #AIChina #Teknologi #Inovasi #MachineLearning #LLM #LargeLanguageModel #Pemrograman #SoftwareDevelopment #Benchmark #Komputasi #Efisiensi #Startup #PersainganAI

Comments are closed.