⭐️ Sztuczna inteligencja ( KI )   -

Wybór głosu 📢


Deepseek-R1-0528: Aktualizacja Deepseek przywraca chiński model sztucznej inteligencji na poziomie oczu z liderami branży zachodniej

Opublikowano: 31 maja 2025 / Aktualizacja od: 31 maja 2025 r. - Autor: Konrad Wolfenstein

Deepseek-R1-0528: Aktualizacja Deepseek przywraca chiński model sztucznej inteligencji na poziomie oczu z liderami branży zachodniej

DeepSeek-R1-0528: Aktualizacja Deepseek przywraca model chińskiego AI na poziom

AI open source na limicie: Deepseek wykonuje Openai i Google w cieniu

Od 60 do 68: Deepseek Catapulted Chinese AI z powrotem na górę

Wraz z publikacją Deepseek-R1-0528 28 maja 2025 r. Chiński startup KI Deepseek osiągnął ważny kamień milowy, który na nowo zdefiniował globalny krajobraz AI. Aktualizacja modelu czytania open source pokazuje dramatyczny wzrost wydajności i po raz pierwszy pozycje Deepeek na tym samym poziomie co OpenAis O3 i Google Gemini 2.5 Pro. Warto zauważyć, że najważniejsze wyniki osiągnięte są ułamkiem kosztów i całkowicie otwartych wag modeli, co rodzi podstawowe pytania dotyczące przyszłości zastrzeżonych systemów AI. Niezależna platforma oceny sztuczna analiza klasyfikuje nowy model z 68 punktami - skok z 60 do 68 punktów odpowiada różnicy wydajności między OpenAai O1 i O3.

Nadaje się do:

Aktualizacja i jej ulepszenia techniczne

DeepSeek-R1-0528 stanowi znaczny dalszy rozwój, który nie wymaga żadnych zmian w podstawowej architekturze, ale osiąga znaczny wzrost po treningu poprzez optymalizacje algorytmiczne i zwiększone wykorzystanie zasobów arytmetycznych. Aktualizacja koncentruje się przede wszystkim na poprawie umiejętności rozumowania i, według Deepseek, umożliwia „znacznie głębsze procesy myślenia”. Szczególnie imponujący przykład tej poprawy pokazuje test matematyczny AIME 2025, w którym dokładność wzrosła z 70 procent do 87,5 procent. Jednocześnie średnia liczba tokenów na pytanie wzrosła z 12 000 do 23 000 tokenów, co wskazuje na bardziej intensywne procesy przetwarzania.

Oprócz ulepszeń rozumowania, aktualizacja wprowadza ważne nowe funkcje, w tym wyjście JSON i widoki funkcjonalne, zoptymalizowany interfejs użytkownika i zmniejszone halucynacje. Te innowacje sprawiają, że model jest znacznie bardziej praktyczny dla programistów i znacznie poszerzają swój zakres. Dostępność pozostaje niezmieniona: istniejący użytkownicy API automatycznie odbierają aktualizację, podczas gdy wagi modelu są nadal dostępne pod otwartą współistnieniem przytulania twarzy.

Porównania wydajności i wydajności Benchmark

Wyniki porównawcze DeepSeek-R1-0528 pokazują imponujące ulepszenia we wszystkich kategoriach oceny. W zadaniach matematycznych wartość AIME 2024 wzrosła z 79,8 do 91,4 procent, HMMT 2025 z 41,7 do 79,4 procent i CNMO 2024 z 78,8 do 86,9 procent. Wyniki te stanowią model jako jeden z najpotężniejszych systemów AI dla matematycznych rozwiązań problemowych na całym świecie.

W przypadku testów porównawczych programowania DeepSeek-R1-0528 również wykazuje znaczny postęp. LiveCodeBech poprawił się z 63,5 do 73,3 procent, Aider Polyglot z 53,3 do 71,6 procent i SWE zweryfikował z 49,2 do 57,6 procent. Ocena Codeforces wzrosła z 1530 do 1930 punktów, co klasyfikuje model w najwyższej grupie algorytmicznych rozwiązywania problemów. W porównaniu z konkurencyjnymi modelami Deepseek-R1 osiąga 49,2 procent w sprawie SWE i dlatego jest tuż przed OpenAai O1-1217 z 48,9 procentami, podczas gdy kodeks z 96,3 procentami i oceną ELO 2029 punktów jest bardzo blisko OpenAis.

Ogólna wiedza i testy logiczne potwierdzają szeroki wzrost wydajności: GPQA-Diamond wzrósł z 71,5 do 81,0 procent, ostatni egzamin ludzkości z 8,5 do 17,7 procent, MMLU-PRO z 84,0 do 85,0 procent i MMLU-Reduks z 92,9 do 93,4 procent. Tylko z OpenAis Simpleqa był niewielki spadek z 30,1 do 27,8 procent. Te kompleksowe ulepszenia dokumentują, że DeepSeek-R1-0528 jest nie tylko konkurencyjny na wyspecjalizowanych obszarach, ale w całym spektrum zadań poznawczych.

Architektura techniczna i innowacje

Techniczne podstawy DeepSeek-R1-0528 oparte jest na wysoce rozwiniętej architekturze MOE (mieszanka ekspertów) z 37 miliardami aktywnych parametrów z łącznie 671 miliardów parametrów i długości kontekstu 128 000 tokenów. Model implementuje zaawansowane uczenie się w sprawie Purforcet w celu osiągnięcia samowystarczalności, refleksji wielofunkcyjnej i zdolności argumentowania, która jest dostosowana do ludzi. Ta architektura umożliwia modelu zarządzanie złożonymi zadaniami rozumowania poprzez iteracyjne procesy myślenia, które rozróżnia tradycyjne modele głosowe.

Szczególnie innowacyjnym aspektem jest opracowanie destylowanego wariantu, Deepseek-R1-0528-QWEN3-8B, który został stworzony przez destylację myśli Deepseek-R1-0528 do po szkoleniu bazy QWEN3-8B. Ta mniejsza wersja osiąga imponujące usługi o znacznie niższych wymaganiach dotyczących zasobów i może być uruchamiana na GPU z VRAM 8-12 GB. Model osiągnął najnowocześniejszą wydajność w teście AIME 2024 w modelach open source z 10-procentową poprawą w porównaniu z QWEN3-8B ​​i porównywalną wydajnością, taką jak myślenie QWEN3-235B.

Metodologia rozwoju pokazuje, że DeepSeek coraz częściej opiera się na po szkoleniu z uczeniem się wzmocnienia, co doprowadziło do 40-procentowego wzrostu zużycia tokenów w ocenę z 71 do 99 milionów tokenów. Wskazuje to, że model generuje dłuższe i głębsze odpowiedzi bez podstawowych zmian architektonicznych.

Pozycja rynkowa i dynamika konkurencyjna

Deepseek-R1-0528 ustanawia się jako poważny konkurent wiodących własnych modeli zachodnich firm technologicznych. Według sztucznej analizy model z 68 punktami jest na tym samym poziomie, co Google Gemini 2.5 Pro i przed modelami takimi jak Xais Grok 3 Mini, Metas Llama 4 Maverick i Nvidias Nemotron Ultra. W kategorii kodu DeepSeek-R1-0528 osiąga poziom tuż poniżej O4-Mini i O3.

Publikacja aktualizacji miała znaczący wpływ na globalny krajobraz AI. Już oryginalna publikacja DeepSeek-R1 w styczniu 2025 r. Doprowadziła do włamania się do udziału w Chinach i zakwestionowała założenie, że skalowanie sztucznej inteligencji wymagało ogromnej siły i inwestycji obliczeniowej. Odpowiedź zachodnich konkurentów była szybka: Google wprowadził taryfy dyskontowanej dostępu do Gemini, podczas gdy Openai obniżyło ceny i wprowadził mini model O3, który wymagał mniejszej mocy obliczeniowej.

Co ciekawe, analizy w stylu tekstowym z EQBENCH pokazują, że Deepseek-R1 jest bardziej zorientowany na Google niż na OpenAai, co wskazuje, że w rozwoju mogły być użyte bardziej syntetyczne wyjścia Gemini. Ta obserwacja podkreśla złożone wpływy i transfer technologii między różnymi programistami AI.

Wydajność i dostępność kosztów

Decydującą przewagą konkurencyjną Deepseek-R1-0528 jest jego niezwykła efektywność kosztowa. Struktura cen jest znacznie tańsza niż w przypadku Openai: tokeny wejściowe kosztują 0,14 USD za milion tokenów dla uderzeń pamięci podręcznej i 0,55 USD w przypadku braków pamięci podręcznej, podczas gdy tokeny produkcyjne kosztują 2,19 USD za milion tokenów. Dla porównania, Openai O1 wymaga 15 USD na tokeny wejściowe i 60 USD za tokeny wyjściowe na milion, co sprawia, że ​​DeepSeek-R1 jest ponad 90-95 procent tańsze.

Microsoft Azure oferuje również DeepSeek-R1 o konkurencyjnych cenach: wersja globalna kosztuje 0,00135 USD za tokeny wejściowe i 0,0054 USD za tokeny produkcyjne na 1000 tokenów, podczas gdy wersja regionalna ma nieco wyższe ceny. Ta cena sprawia, że ​​model jest szczególnie atrakcyjny dla firm i programistów, którzy chcą korzystać z wysokiej jakości funkcjonalności AI bez wysokich kosztów zastrzeżonych rozwiązań.

Dostępność jako model open source w ramach współpracy umożliwia również użycie komercyjne i modyfikacje bez opłat licencyjnych. Deweloperzy mogą obsługiwać model lokalnie lub korzystać z różnych interfejsów API, które oferują elastyczność i kontrolę nad implementacją. Dla użytkowników o ograniczonych zasobach dostępna jest destylowana wersja parametrów 8 miliardów, która działa na sprzęcie konsumenckim z pamięcią 24 GB.

Nadaje się do:

Chińska sztuczna inteligencja: co oznacza sukces Deepseek

DeepSeek-R1-0528 oznacza punkt zwrotny w globalnym rozwoju sztucznej inteligencji i pokazuje, że chińskie firmy mogą opracowywać modele pomimo ograniczeń eksportowych w USA, które konkurują z najlepszymi systemami zachodnimi. Aktualizacja dowodzi, że znaczny wzrost wydajności bez fundamentalnych zmian architektonicznych jest możliwa, jeśli skutecznie stosuje się optymalizacje po szkoleniu i uczenie się ponownie. Połączenie najwyższych wyników, drastycznie obniżonych kosztów i pytań dotyczących dostępności open source ustalono modele biznesowe w branży AI.

Reakcje zachodnich konkurentów na sukces Deepseek już pokazują pierwsze zmiany rynkowe: obniżki cen w OpenAai i Google, a także rozwój modeli ratujących zasoby. W przypadku oczekiwanej publikacji DeepSeek-R2, która pierwotnie zaplanowano na maj 2025 r., Ta presja konkurencyjna może się dodatkowo nasilać. Historia sukcesu Deepseek-R1-0528 pokazuje, że innowacje w sztucznej inteligencji niekoniecznie wymagają masowych inwestycji i zasobów arytmetycznych, ale można ją osiągnąć poprzez sprytne algorytmy i wydajne metody rozwoju.

Nadaje się do:

 

Twoja transformacja AI, integracja AI i ekspert w branży platformy AI

☑️Naszym językiem biznesowym jest angielski lub niemiecki

☑️ NOWOŚĆ: Korespondencja w Twoim języku narodowym!

 

Cyfrowy pionier – Konrad Wolfenstein

Konrada Wolfensteina

Chętnie będę służyć Tobie i mojemu zespołowi jako osobisty doradca.

Możesz się ze mną skontaktować wypełniając formularz kontaktowy lub po prostu dzwoniąc pod numer +49 89 89 674 804 (Monachium) . Mój adres e-mail to: wolfenstein xpert.digital

Nie mogę się doczekać naszego wspólnego projektu.

 

 

☑️ Wsparcie MŚP w zakresie strategii, doradztwa, planowania i wdrażania

☑️ Tworzenie lub wyrównanie strategii AI

☑️ Pionierski rozwój biznesu


⭐️ Sztuczna inteligencja ( KI )   -