Diterbitkan pada: 31 Mei 2025 / Pembaruan Dari: 31 Mei 2025 - Penulis: Konrad Wolfenstein
Deepseek-R1-0528: Pembaruan Deepseek Membawa Model AI Cina Kembali Secara Mata Dengan Pemimpin Industri Barat-Image: Xpert.Digital
Open Source AI di batas: Deepseek melakukan OpenAi dan Google di tempat teduh
Dari 60 hingga 68: Deepseek melambungkan AI Cina kembali ke atas
Dengan publikasi Deepseek-R1-0528 pada 28 Mei 2025, startup KI China Deepseek mencapai tonggak penting yang telah mendefinisikan ulang lanskap AI global. Pembaruan model pembaca open source menunjukkan peningkatan kinerja dramatis dan untuk posisi pertama kali Deepseek pada tingkat yang sama dengan OpenAis O3 dan Google Gemini 2.5 Pro. Perlu dicatat bahwa kinerja teratas ini dicapai dengan sebagian kecil dari biaya dan dengan bobot model yang sepenuhnya terbuka, yang menimbulkan pertanyaan mendasar tentang masa depan sistem AI berpemilik. Platform Peringkat Independen Analisis Buatan mengklasifikasikan model baru dengan 68 poin - lompatan dari 60 menjadi 68 poin sesuai dengan perbedaan kinerja antara OpenAai O1 dan O3.
Cocok untuk:
- Deepseek dan Alibaba: Terobosan di tingkat spesialis? Dorongan AI Cina dalam sistem perawatan kesehatan
Pembaruan dan peningkatan teknisnya
Deepseek-R1-0528 mewakili pengembangan lebih lanjut yang substansial, yang tidak memerlukan perubahan pada arsitektur dasar, tetapi mencapai peningkatan yang signifikan dalam pasca-pelatihan melalui optimisasi algoritmik dan peningkatan penggunaan sumber daya aritmatika. Pembaruan ini terutama berfokus pada peningkatan keterampilan penalaran dan, menurut Deepseek, memungkinkan "proses berpikir yang lebih dalam secara signifikan". Contoh yang sangat mengesankan dari peningkatan ini menunjukkan dalam tes matematika AIME 2025, di mana akurasi naik dari 70 persen menjadi 87,5 persen. Pada saat yang sama, jumlah rata -rata token per pertanyaan meningkat dari 12.000 menjadi 23.000 token, yang menunjukkan proses pemrosesan yang lebih intensif.
Selain peningkatan penalaran, pembaruan memperkenalkan fungsi baru yang penting, termasuk output JSON dan tampilan fungsional, antarmuka pengguna yang dioptimalkan dan berkurang halusinasi. Inovasi -inovasi ini membuat model ini jauh lebih praktis bagi pengembang dan secara signifikan memperluas cakupannya. Ketersediaan tetap tidak berubah: pengguna API yang ada secara otomatis menerima pembaruan, sementara bobot model masih tersedia di bawah lisensi bersama terbuka pada wajah memeluk.
Perbandingan kinerja dan kinerja benchmark
Hasil patokan Deepseek-R1-0528 menunjukkan peningkatan yang mengesankan di semua kategori evaluasi. Dalam tugas matematika, nilai AIME 2024 naik dari 79,8 menjadi 91,4 persen, HMMT 2025 dari 41,7 menjadi 79,4 persen dan CNMO 2024 dari 78,8 menjadi 86,9 persen. Hasil ini memposisikan model sebagai salah satu sistem AI paling kuat untuk solusi masalah matematika di seluruh dunia.
Dengan tolok ukur pemrograman, Deepseek-R1-0528 juga menunjukkan kemajuan yang signifikan. LiveCodeBech meningkat dari 63,5 menjadi 73,3 persen, Aider Polyglot dari 53,3 menjadi 71,6 persen dan SWE diverifikasi dari 49,2 menjadi 57,6 persen. Peringkat codeforces naik dari 1.530 menjadi 1.930 poin, yang mengklasifikasikan model dalam kelompok teratas pemecah masalah algoritmik. Dibandingkan dengan model yang bersaing, Deepseek-R1 mencapai 49,2 persen di SWE diverifikasi dan karena itu tepat di depan OpenAai O1-1217 dengan 48,9 persen, sementara codeforces dengan 96,3 persentase dan peringkat ELO 2029 poin sangat dekat dengan OpenAis.
Pengetahuan umum dan tes logika mengkonfirmasi peningkatan kinerja yang luas: GPQA-Diamond naik dari 71,5 menjadi 81,0 persen, ujian terakhir umat manusia dari 8,5 menjadi 17,7 persen, MMLU-PRO dari 84,0 menjadi 85,0 persen dan MMLU-Redux dari 92,9 menjadi 93,4 persen. Hanya dengan OpenAis SimpleQA sedikit penurunan dari 30,1 menjadi 27,8 persen. Dokumen perbaikan komprehensif ini bahwa Deepseek-R1-0528 tidak hanya kompetitif di bidang khusus, tetapi di seluruh spektrum tugas kognitif.
Arsitektur dan inovasi teknis
Dasar teknis Deepseek-R1-0528 didasarkan pada arsitektur MOE (campuran ahli) yang sangat berkembang dengan 37 miliar parameter aktif dari total 671 miliar parameter dan panjang konteks 128.000 token. Model ini mengimplementasikan pembelajaran purforcement canggih untuk mencapai refleksi multi -panggung sendiri, dan kemampuan untuk berdebat yang disesuaikan dengan manusia. Arsitektur ini memungkinkan model untuk mengelola tugas penalaran yang kompleks melalui proses berpikir berulang, yang membedakan antara model suara tradisional.
Aspek yang sangat inovatif adalah pengembangan varian suling, Deepseek-R1-0528-QWEN3-8B, yang diciptakan dengan menyaring pikiran Deepseek-R1-0528 untuk pelatihan basis QWEN3-8B. Versi yang lebih kecil ini mencapai layanan yang mengesankan dengan persyaratan sumber daya yang jauh lebih rendah dan dapat dijalankan pada GPU dengan 8-12 GB VRAM. Model ini mencapai kinerja canggih dalam uji AIME 2024 di bawah model open source dengan peningkatan 10 persen dibandingkan dengan QWEN3-8B dan kinerja yang sebanding seperti QWEN3-235B-Thinking.
Metodologi pengembangan menunjukkan bahwa Deepseek semakin bergantung pada pasca-pelatihan dengan pembelajaran penguatan, yang menyebabkan peningkatan 40 persen dalam konsumsi token dalam evaluasi dari 71 hingga 99 juta token. Ini menunjukkan bahwa model menghasilkan jawaban yang lebih lama dan lebih dalam tanpa perubahan arsitektur mendasar.
Posisi pasar dan dinamika kompetitif
Deepseek-R1-0528 menetapkan dirinya sebagai pesaing serius bagi model kepemilikan terkemuka perusahaan teknologi Barat. Menurut analisis buatan, model dengan 68 poin berada pada level yang sama dengan Google Gemini 2.5 Pro dan di depan model seperti Xais Grok 3 Mini, Metas Llama 4 Maverick dan Nvidias Nemotron Ultra. Dalam kategori kode, Deepseek-R1-0528 mencapai level tepat di bawah O4-Mini dan O3.
Publikasi pembaruan memiliki dampak signifikan pada lanskap AI global. Sudah publikasi asli Deepseek-R1 pada Januari 2025 menyebabkan pembobolan saham teknologi di luar Cina dan mempertanyakan asumsi bahwa penskalaan AI membutuhkan kekuatan komputasi dan investasi yang sangat besar. Respons dari pesaing barat cepat: Google memperkenalkan tarif akses diskon untuk Gemini, sementara OpenAI menurunkan harga dan memperkenalkan model mini O3 yang membutuhkan daya komputasi lebih sedikit.
Menariknya, analisis gaya teks dari Eqbench menunjukkan bahwa Deepseek-R1 lebih berorientasi pada Google daripada di OpenAai, yang menunjukkan bahwa lebih banyak output Gemini sintetis mungkin telah digunakan dalam pengembangan. Pengamatan ini menggarisbawahi pengaruh kompleks dan transfer teknologi antara berbagai pengembang AI.
Efisiensi dan ketersediaan biaya
Keuntungan kompetitif yang menentukan dari Deepseek-R1-0528 adalah efisiensi biaya yang luar biasa. Struktur harga secara signifikan lebih murah daripada OpenAI: Token input berharga $ 0,14 per juta token untuk hit cache dan $ 0,55 pada cache miss, sementara token output berharga $ 2,19 per juta token. Sebagai perbandingan, OpenAI O1 membutuhkan $ 15 untuk token input dan $ 60 untuk token output per juta, yang membuat Deepseek-R1 lebih dari 90-95 persen lebih murah.
Microsoft Azure juga menawarkan Deepseek-R1 dengan harga kompetitif: Versi global berharga $ 0,00135 untuk token input dan $ 0,0054 untuk token output per 1.000 token, sedangkan versi regional memiliki harga yang sedikit lebih tinggi. Harga ini membuat model ini sangat menarik bagi perusahaan dan pengembang yang ingin menggunakan fungsionalitas AI berkualitas tinggi tanpa biaya tinggi dari solusi kepemilikan.
Ketersediaan sebagai model open source di bawah co-license juga memungkinkan penggunaan komersial dan modifikasi tanpa biaya lisensi. Pengembang dapat mengoperasikan model secara lokal atau menggunakan berbagai API, yang menawarkan fleksibilitas dan kontrol atas implementasi. Untuk pengguna dengan sumber daya terbatas, versi parameter 8 miliar suling tersedia, yang berjalan pada perangkat keras konsumen dengan memori 24 GB.
Cocok untuk:
China's AI mengejar: apa arti keberhasilan Deepseek
Deepseek-R1-0528 menandai titik balik dalam pengembangan AI global dan menunjukkan bahwa perusahaan Cina dapat mengembangkan model meskipun kita membatasi ekspor yang bersaing dengan sistem Best Western. Pembaruan membuktikan bahwa kinerja yang signifikan meningkat tanpa perubahan arsitektur mendasar dimungkinkan jika optimasi pasca-pelatihan dan pembelajaran penguatan ulang secara efektif digunakan. Kombinasi kinerja teratas, biaya yang dikurangi secara drastis dan pertanyaan ketersediaan sumber terbuka yang ditetapkan model bisnis di industri AI.
Reaksi pesaing Barat terhadap kesuksesan Deepseek sudah menunjukkan perubahan pasar pertama: pemotongan harga di OpenAai dan Google serta pengembangan model hemat sumber daya. Dengan publikasi Deepseek-R2 yang diharapkan, yang awalnya direncanakan untuk Mei 2025, tekanan kompetitif ini dapat semakin meningkat. Kisah sukses Deepseek-R1-0528 menunjukkan bahwa inovasi dalam AI tidak selalu membutuhkan investasi besar-besaran dan sumber daya aritmatika, tetapi dapat dicapai melalui algoritma yang cerdas dan metode pengembangan yang efisien.
Cocok untuk:
Transformasi AI Anda, Integrasi AI dan Pakar Industri Platform AI
☑️ Bahasa bisnis kami adalah Inggris atau Jerman
☑️ BARU: Korespondensi dalam bahasa nasional Anda!
Saya akan dengan senang hati melayani Anda dan tim saya sebagai penasihat pribadi.
Anda dapat menghubungi saya dengan mengisi formulir kontak atau cukup hubungi saya di +49 89 89 674 804 (Munich) . Alamat email saya adalah: wolfenstein ∂ xpert.digital
Saya menantikan proyek bersama kita.