DeepSeek telah menciptakan gelombang baru dalam komunitas AI dengan merilis seri model penalaran R1 mereka, membuktikan bahwa kemajuan AI yang signifikan dapat dicapai dengan sumber daya yang relatif sederhana. Perusahaan ini, yang membangun model V3 mereka dengan biaya komputasi hanya 5,5 juta dolar Amerika, kini menawarkan model open-weights yang dilaporkan dapat menyamai atau melampaui kinerja alternatif komersial terkemuka dengan biaya yang jauh lebih rendah.
Tangkapan layar dari repositori GitHub DeepSeek-R1, menampilkan model-model penalaran mereka dan sumber daya yang tersedia |
Pendekatan Baru dalam Penalaran
DeepSeek R1 memperkenalkan pendekatan terobosan dengan menunjukkan bahwa kemampuan penalaran dapat dikembangkan murni melalui pembelajaran penguatan (reinforcement learning/RL), tanpa memerlukan penyetelan terbimbing (supervised fine-tuning/SFT). Pencapaian ini merupakan penyimpangan signifikan dari metode tradisional, menunjukkan bahwa model dapat secara alami mengembangkan perilaku penalaran kompleks hanya melalui RL. Fitur khas model ini adalah proses berpikirnya yang terlihat, yang mengekspos rantai penalarannya dengan cara yang mendapatkan pujian sekaligus kritik dari komunitas.
Kinerja dan Aksesibilitas
Seri R1 mencakup berbagai model yang telah didistilasi mulai dari 1,5B hingga 70B parameter, membuatnya dapat diakses oleh pengguna dengan sumber daya komputasi yang berbeda. Pengujian komunitas mengungkapkan bahwa bahkan model yang lebih kecil menunjukkan kemampuan mengesankan pada tugas-tugas tertentu, meskipun dengan beberapa keterbatasan. Model-model ini dirilis di bawah lisensi MIT, memungkinkan penggunaan komersial dan modifikasi, termasuk distilasi untuk melatih LLM lainnya.
CEO: Dalam menghadapi teknologi yang disruptif, pertahanan yang diciptakan oleh closed source hanyalah sementara. Bahkan pendekatan closed source OpenAI tidak dapat mencegah orang lain untuk mengejar. Jadi kami menambatkan nilai kami pada tim kami — rekan-rekan kami berkembang melalui proses ini, mengakumulasi pengetahuan, dan membentuk organisasi serta budaya yang mampu berinovasi. Itulah pertahanan kami.
Spesifikasi Model:
- Panjang Konteks: 128K
- Total Parameter: 671B
- Parameter Teraktivasi: 37B
Model Terdistilasi yang Tersedia:
- DeepSeek-R1-Distill-Qwen-1.5B
- DeepSeek-R1-Distill-Qwen-7B
- DeepSeek-R1-Distill-Llama-8B
- DeepSeek-R1-Distill-Qwen-14B
- DeepSeek-R1-Distill-Qwen-32B
- DeepSeek-R1-Distill-Llama-70B
Tantangan Teknis dan Keterbatasan
Pengguna melaporkan pengalaman yang beragam dengan model-model ini, terutama mencatat masalah dengan pemanggilan fungsi dan halusinasi yang sesekali terjadi. Pengamatan yang sering muncul adalah kecenderungan model untuk menghasilkan output pemikiran yang bertele-tele, yang menurut sebagian orang berlebihan. Batas token input 64K dan batas token output 8K juga disebutkan sebagai kendala potensial dibandingkan dengan beberapa alternatif komersial. Namun, komunitas telah mengembangkan berbagai solusi, termasuk chunking dan implementasi RAG.
Dampak pada Lanskap AI
Pendekatan DeepSeek merupakan tantangan signifikan bagi pemain mapan dalam industri AI. Dengan mencapai hasil yang sebanding dengan biaya komputasi yang jauh lebih rendah dan secara terbuka membagikan teknologi mereka, mereka menunjukkan bahwa pengembangan AI yang efektif tidak selalu memerlukan sumber daya komputasi yang besar. Hal ini bisa memiliki implikasi luas untuk demokratisasi teknologi AI dan pengembangan model penalaran di masa depan.
Peluncuran DeepSeek R1 menandai tonggak penting dalam pengembangan AI open-source, menunjukkan bahwa kemampuan penalaran yang canggih dapat dicapai melalui pendekatan inovatif daripada hanya mengandalkan kekuatan komputasi mentah. Meskipun model-model ini memiliki keterbatasan, rasio kinerja terhadap biaya dan sifat terbukanya menjadikannya kontribusi yang signifikan bagi bidang ini.