Breaking News:

Fakta-fakta DeepSeek AI Buatan China yang Kalahkan Dominasi ChatGPT, Berbahaya atau Tidak?

Apakah DeepSeek AI buatan China aman digunakan? Angka downloadnya bahkan kalahkan ChatGPT di Amerika Serikat, berikut fakta-faktanya.

Editor: jonisetiawan
shuterstock/TribunTrends
Ilustrasi DeepSeek AI sedang digunakan, apakah DeepSeek aman digunakan? 

Fokus utama DeepSeek-V3 adalah menyelesaikan tugas-tugas umum, seperti menjawab pertanyaan sehari-hari, memahami bahasa alami, dan menghasilkan konten kreatif. Model ini dirancang untuk memberikan solusi yang cepat dan efektif bagi pengguna dengan kebutuhan yang beragam.

Baca juga: DeepSeek, AI Revolusioner dari Tiongkok Melawan ChatGPT dan Google Gemini: Siapa yang Lebih Hebat?

Sementara itu, DeepSeek-R1, yang diluncurkan pada Januari 2025, mengambil langkah lebih jauh. Dibangun di atas fondasi DeepSeek-V3, model ini menggunakan teknik reinforcement learning untuk meningkatkan kemampuan penalaran (reasoning) dan pemecahan masalah kompleks. 

Dengan kapasitas output yang diperluas hingga 32.000 token, DeepSeek-R1 dirancang untuk tugas-tugas yang membutuhkan analisis mendalam, seperti matematika tingkat lanjut, logika berantai, dan pemrograman. 

Model ini tidak hanya unggul dalam memahami konteks yang kompleks, tetapi juga dalam menghasilkan respons yang lebih detail dan terstruktur.

Perbedaan utama antara keduanya terletak pada tujuan dan fokusnya. DeepSeek-V3 lebih cocok untuk tugas-tugas umum dengan efisiensi tinggi, sementara DeepSeek-R1 diarahkan untuk aplikasi yang membutuhkan kemampuan berpikir kritis dan pemecahan masalah yang mendalam. 

Selain itu, kapasitas output DeepSeek-R1 yang lebih besar memungkinkan model ini memberikan jawaban yang lebih panjang dan komprehensif, menjadikannya ideal untuk skenario penggunaan yang lebih kompleks.

DeepSeek AI saingan ChatGPT kena serangan siber.
DeepSeek AI asal China viral saingan ChatGPT kena serangan siber. (DeepSeek)

Mixture-of-Experts (MoE) dan Chain-of-Thought (CoT)

DeepSeek mengadopsi pendekatan teknologi inovatif untuk memastikan efisiensi dan performa tinggi dalam model AI mereka. 

Mixture-of-Experts (MoE) adalah arsitektur yang memungkinkan model besar, seperti DeepSeek-V3, dengan total 671 miliar parameter, untuk hanya mengaktifkan 37 miliar parameter saat memproses setiap token. Pendekatan ini membuat model lebih hemat sumber daya tanpa mengorbankan kinerja. 

Model lanjutan mereka, DeepSeek-R1, dilatih menggunakan teknik Chain-of-Thought (CoT), yang memecah pertanyaan kompleks menjadi langkah-langkah kecil sebelum memberikan jawaban akhir. 

Dilansir dari The Register, dengan CoT, model tidak hanya menghasilkan respons yang lebih logis dan akurat, tetapi juga mampu mengidentifikasi dan memperbaiki kesalahan logika atau halusinasi data selama proses berpikirnya.

Pemanfaatan Nvidia H800

Untuk melatih model-model ini, DeepSeek menggunakan 2.048 unit Nvidia H800 GPU, yang memiliki spesifikasi lebih rendah dibandingkan H100 yang sering digunakan perusahaan AI di AS. 

Proses pelatihan memakan waktu sekitar 2.788 juta jam GPU, dengan biaya total sekitar 5.58 dollar juta AS. Efisiensi ini jauh melampaui model seperti GPT-4o, yang dilatih menggunakan ribuan chip H100 dan investasi puluhan miliar dolar.

Pembatasan ekspor chip oleh AS memaksa Tiongkok menggunakan chip seperti H800 yang memiliki performa lebih rendah. Namun, keterbatasan ini justru mendorong inovasi, seperti penggunaan teknik distillation. 

Halaman
1234
Sumber: Kompas.com
Tags:
DeepSeekChatGPTChina
Berita Terkait
AA

BERITA TERKINI

© 2025 TRIBUNnews.com Network,a subsidiary of KG Media.
All Right Reserved