Dil seçimi 📢


Deepseek-R1-0528: Deepseek Güncellemesi, Batı endüstrisi liderleriyle Çin AI modelini göz seviyesine geri getiriyor

Yayınlanan: 31 Mayıs 2025 / Güncelleme: 31 Mayıs 2025 - Yazar: Konrad Wolfenstein

Deepseek-R1-0528: Deepseek Güncellemesi, Batı endüstrisi liderleriyle Çin AI modelini göz seviyesine geri getiriyor

Deepseek-R1-0528: Deepseek Güncellemesi, Batı Endüstrisi Liderleri ile Çin AI modelini göz seviyesine geri getiriyor-Xpert.digital

Sınırda Açık Kaynak AI: Deepseek, gölgede Openai ve Google'ı gerçekleştirir

60'dan 68'e kadar: Deepseek, Çince Ai'yi tepeye çıkardı

28 Mayıs 2025'te Deepseek-R1-0528'in yayınlanmasıyla, Çin KI Startup Deepseek, küresel AI manzarasını yeniden tanımlayan önemli bir kilometre taşına ulaştı. Açık kaynak okuma modelinin güncellenmesi dramatik performans artışları gösterir ve ilk kez Deepseek'i OpenAIS O3 ve Google Gemini 2.5 Pro ile aynı seviyede konumlandırır. Bu en iyi performansın maliyetlerin bir kısmı ve tamamen açık model ağırlıkları ile elde edilmesi özellikle dikkat çekicidir, bu da tescilli AI sistemlerinin geleceği hakkında temel sorular ortaya çıkarır. Bağımsız Derecelendirme Platformu Yapay Analizi, yeni modeli 68 puanla sınıflandırır - 60 ila 68 puan artışı OpenAAI O1 ve O3 arasındaki performans farkına karşılık gelir.

İçin uygun:

Güncelleme ve teknik gelişmeleri

Deepseek-R1-0528, temel mimaride herhangi bir değişiklik gerektirmeyen, ancak algoritmik optimizasyonlar ve aritmetik kaynakların artan kullanımı yoluyla eğitim sonrası önemli artışlar elde eden önemli bir daha fazla gelişimi temsil eder. Güncelleme öncelikle akıl yürütme becerilerini geliştirmeye odaklanıyor ve Deepseek'e göre “önemli ölçüde daha derin düşünme süreçleri” sağlar. Bu iyileştirmenin özellikle etkileyici bir örneği, doğruluğun yüzde 70'den yüzde 87,5'e yükseldiği AIME 2025 Matematik Testinde göstermektedir. Aynı zamanda, soru başına ortalama jeton sayısı 12.000'den 23.000 jetona yükseldi, bu da daha yoğun işlem süreçlerini gösterdi.

Akıl yürütme iyileştirmelerine ek olarak, güncelleme, JSON çıkışı ve fonksiyonel görünümler, optimize edilmiş bir kullanıcı arayüzü ve azaltılmış halüsinasyonlar dahil olmak üzere önemli yeni işlevler sunar. Bu yenilikler modeli geliştiriciler için çok daha pratik hale getirir ve kapsamını önemli ölçüde genişletir. Kullanılabilirlik değişmeden kalır: Mevcut API kullanıcıları güncellemeyi otomatik olarak alırken, model ağırlıkları hala sarılma yüzünde açık ortak lisans altında mevcuttur.

Benchmark Performans ve Performans Karşılaştırmaları

Deepseek-R1-0528'in kıyaslama sonuçları, tüm değerlendirme kategorilerinde etkileyici gelişmeler göstermektedir. Matematiksel görevlerde AIME 2024 değeri yüzde 79.8'den 91.4'e, HMMT 2025'i 41.7'den yüzde 79.4'e ve CNMO 2024'ü yüzde 78.8'den yüzde 86.9'a yükseldi. Bu sonuçlar, modeli dünya çapında matematiksel problem çözümleri için en güçlü AI sistemlerinden biri olarak konumlandırmaktadır.

Programlama kriterleri ile Deepseek-R1-0528 de önemli ilerlemeler göstermektedir. LiveCodebech yüzde 63.5'ten 73.3'e, Aider Polyglot'u yüzde 53.3'ten 71,6'ya ve SWE'nin yüzde 49.2'den 57,6'ya doğru bir şekilde doğrulandı. CodeForces derecelendirmesi 1.530'dan 1.930'a yükseldi ve bu da modeli algoritmik problem çözücülerin üst grubundaki modeli sınıflandırdı. Rakip modellerle karşılaştırıldığında, Deepseek-R1, SWE'nin doğrulanmasında yüzde 49,2'ye ulaşır ve bu nedenle yüzde 48.9 ile OpenAAI O1-1217'nin hemen önünde, 96.3 yüzdeyle kodforlar ve 2029 puanlık ELO derecesi OpenAIS'e çok yakındır.

Genel bilgi ve mantık testleri performansdaki geniş artışı doğrulamaktadır: GPQA-Diamond yüzde 71.5'ten 81,0'a yükseldi, Humanity'nin son sınavı 8,5'ten 17,7'ye, MMLU-Pro'yu yüzde 84.0'dan yüzde 85.0'a ve MMLU-Redux yüzde 92.9'dan 93.4'e. Sadece OpenAis Simpleqa ile yüzde 30.1'den 27,8'e kadar hafif bir düşüştü. Bu kapsamlı iyileştirmeler, Deepseek-R1-0528'in sadece özel alanlarda değil, aynı zamanda bilişsel görevlerin tüm yelpazesinde rekabetçi olduğunu belgelemektedir.

Teknik mimari ve yenilikler

Deepseek-R1-0528'in teknik temeli, toplam 671 milyar parametreden 37 milyar aktif parametreye ve 128.000 jeton bağlam uzunluğuna sahip oldukça gelişmiş bir MOE (uzman karışımı) mimarisine dayanmaktadır. Model, kendini kontrol etmek, çok aşamalı yansıma ve insanlara göre uyarlanmış tartışma yeteneği elde etmek için ileri saflaştırma öğrenimini uygular. Bu mimari, modelin, geleneksel ses modelleri arasında farklılaşan yinelemeli düşünme süreçleri aracılığıyla karmaşık akıl yürütme görevlerini yönetmesini sağlar.

Özellikle yenilikçi bir yönü, Qwen3-8b bazının eğitim sonrası derinlik-R1-0528'in düşüncelerinin damıtılmasıyla oluşturulan damıtılmış bir varyant olan Deepseek-R1-0528-QWEN3-8B'nin geliştirilmesidir. Bu daha küçük sürüm, önemli ölçüde daha düşük kaynak gereksinimlerine sahip etkileyici hizmetler sunar ve 8-12 GB VRAM ile GPU'larda çalıştırılabilir. Model, AIME 2024 testinde Qwen3-8b'ye kıyasla yüzde 10 iyileşme ve Qwen3-235b-düşünme gibi karşılaştırılabilir performansla son teknoloji ürünü performans elde etti.

Geliştirme metodolojisi, Deepseek'in takviye öğrenimi ile eğitim sonrası giderek daha fazla dayandığını göstermektedir, bu da değerlendirmede belirteç tüketiminde yüzde 40 artışa yol açmıştır. Bu, modelin temel mimari değişiklikler olmadan daha uzun ve daha derin cevaplar ürettiğini gösterir.

Pazar pozisyonu ve rekabetçi dinamikler

Deepseek-R1-0528, Batılı teknoloji şirketlerinin önde gelen tescilli modellerine ciddi bir rakip olarak kendisini kurar. Yapay analize göre, 68 puanlı model Google'ın Gemini 2.5 Pro ile aynı seviyede ve Xais GroK 3 Mini, Metas Llama 4 Maverick ve Nvidias Nemotron Ultra gibi modellerin önünde. Kod kategorisinde, Deepseek-R1-0528, O4-mini ve O3'ün hemen altında bir seviyeye ulaşır.

Güncellemenin yayınlanmasının küresel AI manzarası üzerinde önemli bir etkisi olmuştur. Zaten Deepseek-R1'in Ocak 2025'te orijinal yayınlanması, Çin dışındaki teknoloji hisselerinin girmesine yol açtı ve AI'nın ölçeklendirilmesinin muazzam bilgi işlem gücü ve yatırım gerektirdiği varsayımını sorguladı. Batılı rakiplerden gelen yanıt hızlıydı: Google, İkizler için indirimli erişim tarifeleri getirirken, Openai fiyatları düşürdü ve daha az bilgi işlem gücü gerektiren bir O3 mini model sundu.

İlginç bir şekilde, eqBench'ten metin tarzı analizler, Deepseek-R1'in Google'a doğru OpenAAI'dan daha fazla yöneldiğini gösteriyor, bu da geliştirmede daha sentetik İkizler çıktılarının kullanılabileceğini gösteriyor. Bu gözlem, çeşitli AI geliştiricileri arasındaki karmaşık etkilerin ve teknoloji transferinin altını çizmektedir.

Maliyet verimliliği ve kullanılabilirliği

Deepseek-R1-0528'in belirleyici bir rekabet avantajı, olağanüstü maliyet verimliliğidir. Fiyat yapısı Openai'den önemli ölçüde daha ucuzdur: Girdi jetonları önbellek vuruşları için milyon jeton başına 0,14 $ ve önbellek misslerinde 0.55 $, çıktı jetonları milyon jeton başına 2.19 $ maliyeti. Buna karşılık, Openai O1, girdi jetonları için 15 $ ve milyon başına çıktı jetonları için 60 $ gerektirir, bu da Deepseek-R1'i yüzde 90-95'ten daha ucuz hale getirir.

Microsoft Azure ayrıca rekabetçi fiyatlarla Deepseek-R1 sunuyor: Global sürüm, girdi jetonları için 0.00135 $ ve 1.000 jeton başına çıktı jetonları için 0.0054 $ 'a mal olurken, bölgesel sürüm biraz daha yüksek fiyatlara sahip. Bu fiyatlandırma, modeli özellikle tescilli çözümlerin maliyeti olmadan yüksek kaliteli AI işlevlerini kullanmak isteyen şirketler ve geliştiriciler için cazip hale getirir.

Ortak lisans altındaki açık kaynaklı bir model olarak kullanılabilirlik, lisans ücretleri olmadan ticari kullanım ve modifikasyon sağlar. Geliştiriciler modeli yerel olarak çalıştırabilir veya uygulama üzerinde esneklik ve kontrol sunan çeşitli API'leri kullanabilir. Sınırlı kaynakları olan kullanıcılar için, 24 GB belleğe sahip tüketici donanımında çalışan 8 milyar parametre sürümü mevcuttur.

İçin uygun:

Çin'in AI'sını Yakalıyor: Deepseek'in başarısı ne anlama geliyor

Deepseek-R1-0528, küresel AI gelişiminde bir dönüm noktasını işaret ediyor ve Çin şirketlerinin en iyi batı sistemleriyle rekabet eden ihracat kısıtlamalarına rağmen modeller geliştirebileceğini gösteriyor. Güncelleme, antrenman sonrası optimizasyonlar ve yeniden çalıştırma öğrenimi etkili bir şekilde kullanılırsa, temel mimari değişiklikler olmadan önemli performans artışlarının mümkün olduğunu kanıtlamaktadır. En iyi performansın birleşimi, büyük ölçüde azaltılmış maliyetler ve açık kaynak kullanılabilirliği soruları AI endüstrisinde iş modelleri kurdu.

Batılı rakiplerin Deepseek'in başarısına tepkileri zaten ilk pazar değişikliklerini gösteriyor: Openaai ve Google'daki fiyat kesintileri ve kaynak kurtarıcı modellerin geliştirilmesi. Başlangıçta Mayıs 2025 için planlanan Deepseek-R2'nin beklenen yayınlanmasıyla, bu rekabetçi baskı daha da yoğunlaşabilir. Deepseek-R1-0528'in başarı öyküsü, AI'daki yeniliğin mutlaka büyük yatırımlar ve aritmetik kaynaklar gerektirmediğini, ancak akıllı algoritmalar ve verimli geliştirme yöntemleri ile elde edilebileceğini göstermektedir.

İçin uygun:

 

AI dönüşümünüz, AI entegrasyonu ve AI platformu endüstri uzmanınız

☑️İş dilimiz İngilizce veya Almancadır

☑️ YENİ: Ulusal dilinizde yazışmalar!

 

Dijital Öncü - Konrad Wolfenstein

Konrad Wolfenstein

Size ve ekibime kişisel danışman olarak hizmet etmekten mutluluk duyarım.

iletişim formunu doldurarak benimle iletişime geçebilir +49 89 89 674 804 (Münih) numaralı telefondan beni arayabilirsiniz . E-posta adresim: wolfenstein xpert.digital

Ortak projemizi sabırsızlıkla bekliyorum.

 

 

☑️ Strateji, danışmanlık, planlama ve uygulama konularında KOBİ desteği

AI stratejisinin yaratılması veya yeniden düzenlenmesi

☑️ Öncü İş Geliştirme


⭐️ Yapay Zeka (KI) -Ai Blog, Hotspot ve İçerik Hub ⭐️ AIS Yapay Zeka Arama / Kis-Ki-Search / Neo SEO = NSEO (yeni nesil arama motoru optimizasyonu) ⭐️ Çin ⭐ 50 xpaper