Apa Itu MoE dan CoT di DeepSeek? Keunggulan AI Baru Asal China Pesaing ChatGPT dan Google Gemini
Dua istilah yang asing di telinga yakni MoE dan CoT di DeepSeek, AI baru asal China, penantang kuat ChatGPT besutan OpenAI dan Google Gemini
Editor: Nafis Abdulhakim
Startup DeepSeek AI didirikan kurang dari dua tahun lalu oleh High Flyer, sebuah hedge fund Tiongkok dengan visi ambisius untuk mengembangkan artificial general intelligence (AGI).
Dalam waktu singkat, DeepSeek telah membangun reputasi sebagai pelopor AI global dengan menghadirkan model-model yang tak hanya canggih, tetapi juga mendorong persaingan harga di industri AI Tiongkok.
Hal ini memperkuat posisinya sebagai pemain utama dalam perkembangan teknologi AI modern.
Mixture-of-Experts (MoE) dan Chain-of-Thought (CoT)
DeepSeek mengadopsi pendekatan teknologi inovatif untuk memastikan efisiensi dan performa tinggi dalam model AI mereka.
Mixture-of-Experts (MoE) adalah arsitektur yang memungkinkan model besar, seperti DeepSeek-V3, dengan total 671 miliar parameter, untuk hanya mengaktifkan 37 miliar parameter saat memproses setiap token.
Pendekatan ini membuat model lebih hemat sumber daya tanpa mengorbankan kinerja.
Model lanjutan mereka, DeepSeek-R1, dilatih menggunakan teknik Chain-of-Thought (CoT), yang memecah pertanyaan kompleks menjadi langkah-langkah kecil sebelum memberikan jawaban akhir.
Dilansir dari The Register, dengan CoT, model tidak hanya menghasilkan respons yang lebih logis dan akurat, tetapi juga mampu mengidentifikasi dan memperbaiki kesalahan logika atau halusinasi data selama proses berpikirnya.
Liang Wenfeng
Kesuksesan DeepSeek tidak lepas dari sosok pendirinya, Liang Wenfeng, yang memiliki visi besar untuk membawa Tiongkok ke garis depan inovasi kecerdasan buatan global.
Ia mengarahkan perusahaannya untuk fokus pada pengembangan artificial general intelligence (AGI), sebuah konsep kecerdasan buatan yang mampu berpikir dan membuat keputusan seperti manusia.
Salah satu nilai jual utama dari DeepSeek adalah efisiensi modelnya. DeepSeek-R1, model terbaru mereka, hanya membutuhkan biaya sekitar 6 juta dollar AS untuk pelatihan.
Ini menjadi angka yang jauh lebih kecil dibandingkan investasi besar yang dilakukan oleh pesaing seperti OpenAI. Dengan biaya rendah dan performa tinggi, DeepSeek telah menjadi simbol efisiensi dalam pengembangan teknologi AI.
Efisiensi ini tidak hanya berdampak pada pasar lokal, tetapi juga mulai mengguncang industri teknologi global. Banyak perusahaan besar, termasuk Meta dan OpenAI, mulai memperhatikan pendekatan DeepSeek untuk meningkatkan efisiensi model mereka sendiri.
Hal ini menegaskan bahwa meskipun DeepSeek adalah pemain baru, mereka sudah membawa perubahan signifikan dalam persaingan AI global.
Model-model DeepSeek
Dilansir dari laman Time, DeepSeek memiliki dua model unggulan, yaitu DeepSeek-V3 dan DeepSeek-R1.
Sumber: Kompas.com
Satu Klik Bisa Bahagia! Link DANA Kaget Hari Ini 28 Agustus 2025, Siapa Cepat Dia Dapat |
![]() |
---|
Hanya Hitungan Detik! DANA Kaget 27 Agustus 2025 Bisa Buat Belanja dan Bayar Tagihan, Ini Linknya |
![]() |
---|
Baru Rilis Hari Ini! Link DANA Kaget 26 Agustus 2025, Saldo Gratis Masuk ke Nomor Kamu |
![]() |
---|
Link DANA Kaget 25 Agustus 2025: Satu Klik, Saldo Mengalir, Jangan Sampai Kehabisan! |
![]() |
---|
Buruan Klaim! Link Resmi DANA Kaget 24 Agustus 2025, Siapa Cepat Dia Dapat |
![]() |
---|