Опубліковано: 31 травня 2025 р. / Оновлення з: 31 травня 2025 р. - Автор: Конрад Вольфенштейн
DeepSeek-R1-0528: DeepSeek Update повертає китайську модель AI на рівні очей із західними лідерами галузі: Xpert.digital
AI з відкритим кодом на межі: DeepSeek виконує OpenAI та Google у тіні
Від 60 до 68: DeepSeek катапультував китайську AI назад до вершини
З публікацією DeepSeek-R1-0528 28 травня 2025 року китайський стартап Кі DeepSeek досяг важливої віхи, яка переробила глобальний ландшафт ШІ. Оновлення моделі зчитування з відкритим кодом показує драматичні підвищення продуктивності, і вперше позиціонує DeepSeek на тому ж рівні, що і OpenAis O3 та Google Gemini 2.5 Pro. Особливо примітно, що ця найвища продуктивність досягається за часткою витрат та повністю відкритими модельними вагами, що викликає фундаментальні питання щодо майбутнього власних систем AI. Штучний аналіз платформи незалежної рейтингу класифікує нову модель з 68 балами - стрибок від 60 до 68 балів відповідає різниці продуктивності між OpenAai O1 та O3.
Підходить для цього:
Оновлення та його технічні вдосконалення
DeepSeek-R1-0528 являє собою значний подальший розвиток, який не потребує жодних змін до основної архітектури, але досягає значного збільшення після тренування за допомогою алгоритмічних оптимізацій та збільшення використання арифметичних ресурсів. Оновлення в першу чергу зосереджено на вдосконаленні навичок міркувань та, на думку DeepSeek, дає змогу «значно глибшими процесами мислення». Особливо вражаючий приклад цього вдосконалення показує в тесті математики AIME 2025, де точність зросла з 70 відсотків до 87,5 відсотка. У той же час, середня кількість жетонів на питання зросла з 12 000 до 23 000 жетонів, що вказує на більш інтенсивні процеси обробки.
На додаток до вдосконалення міркувань, оновлення представляє важливі нові функціональні можливості, включаючи вихід JSON та функціональні перегляди, оптимізований інтерфейс користувача та зменшення галюцинацій. Ці інновації роблять модель набагато практичнішою для розробників і значно розширюють її сферу. Наявність залишається незмінною: існуючі користувачі API автоматично отримують оновлення, тоді як ваги моделі все ще доступні під відкритим ліцензією на обіймах обличчя.
Порівняння продуктивності та ефективності орієнтиру
Результати орієнтирів DeepSeek-R1-0528 показують вражаючі вдосконалення у всіх категоріях оцінювання. У математичних завданнях значення AIME 2024 зросло з 79,8 до 91,4 відсотка, HMMT 2025 - з 41,7 до 79,4 відсотка, а CNMO 2024 - з 78,8 до 86,9 відсотка. Ці результати позиціонують модель як одну з найпотужніших систем AI для математичних проблемних рішень у всьому світі.
За допомогою орієнтирів програмування DeepSeek-R1-0528 також показує значний прогрес. Livecodebech покращилася з 63,5 до 73,3 відсотка, поліглот Poil з 53,3 до 71,6 відсотка, а SWE перевірив з 49,2 до 57,6 відсотка. Рейтинг CodeForces піднявся з 1530 до 1930 балів, що класифікує модель у верхній групі алгоритмічних вирішення проблем. Порівняно з конкуруючими моделями, DeepSeek-R1 досягає 49,2 відсотка на перевірці SWE і, отже, випереджає OpenAai O1-1217 з 48,9 відсотками, тоді як Codeforces з 96,3 відсотками та рейтингом ELO 2029 пунктів дуже близький до OpenAis.
Загальні знання та логічні тести підтверджують широке підвищення продуктивності: GPQA-Diamond зросла з 71,5 до 81,0 відсотка, останній іспит людства з 8,5 до 17,7 відсотка, MMLU-Pro-84,0 до 85,0 відсотка та MMLU-REDUX-92,9 до 93,4 відсотка. Тільки з OpenAis Simpleqa був незначним зниженням з 30,1 до 27,8 відсотка. Ці всебічні вдосконалення документують про те, що DeepSeek-R1-0528 є не лише конкурентоспроможним у спеціалізованих областях, але й у всьому спектрі когнітивних завдань.
Технічна архітектура та інновації
Технічна основа DeepSeek-R1-0528 заснована на високорозвиненій архітектурі МО (суміш експертів) з 37 мільярдами активних параметрів із загальної кількості 671 мільярдів параметрів та тривалості контексту 128 000 жетонів. Модель реалізує вдосконалене навчання з надходження, щоб досягти самоконвіту, багатогранного роздуму та здатності аргументувати, що підібрано до людини. Ця архітектура дозволяє моделі керувати складними завданнями міркувань за допомогою ітеративних процесів мислення, що розрізняє традиційні голосові моделі.
Особливо інноваційним аспектом є розробка дистильованого варіанту, DeepSeek-R1-0528-QWEN3-8B, який був створений шляхом перегородки думок про DeepSeek-R1-0528 для після тренування бази QWEN3-8B. Ця менша версія досягає вражаючих послуг із значно меншими вимогами до ресурсів і може бути запущена на GPU з 8-12 ГБ VRAM. Модель досягла найсучасніших показників у тесті AIME 2024 за моделями з відкритим кодом з 10-відсотковим поліпшенням порівняно з QWEN3-8B та порівнянними показниками, такими як QWEN3-235B-мислення.
Методика розвитку показує, що DeepSeek все частіше покладається на після тренування з підкріпленням, що призвело до збільшення споживання жетонів на 40 відсотків у оцінці від 71 до 99 мільйонів жетонів. Це вказує на те, що модель генерує довші та глибші відповіді без фундаментальних архітектурних змін.
Позиція на ринку та конкурентна динаміка
Deepseek-R1-0528 встановлює себе серйозним конкурентом провідних фірмових моделей західних технологічних компаній. Згідно з штучним аналізом, модель з 68 балами знаходиться на тому ж рівні, що і Gemini 2.5 Pro, та перед моделями, такими як Xais grok 3 Mini, Metas Llama 4 Maverick та Nvidias nemotron Ultra. У категорії коду DeepSeek-R1-0528 досягає рівня трохи нижче O4-Mini та O3.
Публікація оновлення мала суттєвий вплив на глобальний ландшафт ШІ. Вже оригінальна публікація DeepSeek-R1 у січні 2025 року призвела до розбиття акцій технологій за межами Китаю та поставила під сумнів припущення, що масштабування ШІ вимагає величезної обчислювальної потужності та інвестицій. Відповідь західних конкурентів була швидкою: Google представив тарифи на доступ зі знижкою для Gemini, тоді як OpenAI знизив ціни та запровадив міні -модель O3, яка потребує меншої обчислювальної потужності.
Цікаво, що аналіз текстового стилю з EQBench показує, що DeepSeek-R1 більш орієнтований на Google, ніж на OpenAai, що вказує на те, що в розробці, можливо, було використано більше синтетичних результатів Близнюків. Це спостереження підкреслює складний вплив та передачу технологій між різними розробниками ШІ.
Ефективність витрат та доступність
Вирішальною конкурентною перевагою DeepSeek-R1-0528 є його надзвичайна економічна ефективність. Структура цін значно дешевша, ніж у OpenAI: вхідні жетони коштують 0,14 долара за мільйон жетонів за кеш -хіти та 0,55 дол. Для порівняння, OpenAI O1 вимагає 15 доларів для вхідних жетонів та 60 доларів для випуску жетонів на мільйон, що робить DeepSeek-R1 на 90-95 відсотків дешевшими.
Microsoft Azure також пропонує DeepSeek-R1 з конкурентоспроможними цінами: глобальна версія коштує 0,00135 доларів за вхідні жетони та 0,0054 дол. Ця ціна робить модель особливо привабливою для компаній та розробників, які хочуть використовувати високоякісні функціональні можливості AI без високих витрат на власні рішення.
Наявність як модель з відкритим кодом за ліцензією також дозволяє комерційному використанню та модифікаціям без ліцензійних зборів. Розробники можуть керувати моделлю локально або використовувати різні API, що пропонує гнучкість та контроль над впровадженням. Для користувачів з обмеженими ресурсами доступна версія параметрів на 8 мільярдів, яка працює на споживчому обладнанні з пам'яттю 24 ГБ.
Підходить для цього:
Китайський ШІ наздоганяє: що означає успіх DeepSeek
Deepseek-R1-0528 позначає поворотній момент у глобальному розвитку ШІ та демонструє, що китайські компанії можуть розробляти моделі, незважаючи на обмеження експорту США, які конкурують з найкращими західними системами. Оновлення доводить, що значні підвищення продуктивності без основних архітектурних змін можливі, якщо ефективно використовується оптимізація після тренувань та повторне навчання. Поєднання найвищих показників, різко зменшених витрат та питань на доступність з відкритим кодом, встановленими бізнес -моделями в галузі ШІ.
Реакції західних конкурентів на успіх DeepSeek вже показують перші зміни на ринку: зниження цін у OpenAai та Google, а також розробка моделей, що підтримують ресурси. З очікуваною публікацією DeepSeek-R2, яка спочатку була запланована на травень 2025 року, цей конкурентний тиск може ще більше посилити. Історія успіху DeepSeek-R1-0528 показує, що інновації в ШІ не обов'язково потребують масових інвестицій та арифметичних ресурсів, але можуть бути досягнуті за допомогою розумних алгоритмів та ефективних методів розвитку.
Підходить для цього:
Ваша трансформація AI, інтеграція AI та експерт з питань індустрії платформ AI
☑ Наша ділова мова - англійська чи німецька
☑ Нове: листування на вашій національній мові!
Я радий бути доступним вам та моїй команді як особистого консультанта.
Ви можете зв’язатися зі мною, заповнивши тут контактну форму або просто зателефонуйте мені за номером +49 89 674 804 (Мюнхен) . Моя електронна адреса: Вольфенштейн ∂ xpert.digital
Я з нетерпінням чекаю нашого спільного проекту.