Выбор голоса 📢


DeepSeek-R1-0528: DeepSeek Update возвращает китайскую модель искусственного интеллекта на уровне глаз с лидерами западной отрасли.

Опубликовано по адресу: 31 мая 2025 г. / Обновление от: 31 мая 2025 г. - Автор: Конрад Вольфенштейн

DeepSeek-R1-0528: DeepSeek Update возвращает китайскую модель искусственного интеллекта на уровне глаз с лидерами западной отрасли.

DeepSeek-R1-0528: Обновление DeepSeek возвращает китайскую модель искусственного интеллекта на уровне глаз с западными лидерами отрасли: Xpert.Digital

ИИ с открытым исходным кодом в пределах лимита: DeepSeek выполняет OpenAI и Google в тени.

С 60 до 68: Deepseek катапультировал китайский AI обратно на вершину

С публикацией Deepseek-R1-0528 28 мая 2025 года китайский стартап KI Deepseek достиг важной вехи, которая пересмотрела глобальный ландшафт ИИ. Обновление модели считывания с открытым исходным кодом показывает резкое повышение производительности, и впервые позиционирует DeepSeek на том же уровне, что и Openais O3 и Google Gemini 2.5 Pro. Особенно примечательно, что эта высшая производительность достигается с помощью доли затрат и с полностью открытыми весами модели, что поднимает фундаментальные вопросы о будущем проприетарных систем ИИ. Независимая рейтинговая платформа искусственного анализа классифицирует новую модель с 68 баллами - скачок от 60 до 68 баллов соответствует разнице производительности между Openaai O1 и O3.

Подходит для:

Обновление и его технические улучшения

DeepSeek-R1-0528 представляет собой существенное дальнейшее развитие, которое не требует каких-либо изменений в основной архитектуре, но достигает значительного увеличения после тренировки посредством алгоритмических оптимизаций и более широкого использования арифметических ресурсов. Обновление в первую очередь фокусируется на улучшении навыков рассуждений и, согласно DeepSeek, позволяет «значительно более глубоко мышление». Особенно впечатляющий пример этого улучшения показывает в математическом тесте AIME 2025, где точность выросла с 70 до 87,5 процента. В то же время среднее количество токенов на вопрос увеличилось с 12 000 до 23 000 токенов, что указывает на более интенсивные процессы обработки.

В дополнение к улучшению рассуждений, обновление вводит важные новые функции, включая вывод JSON и функциональные представления, оптимизированный пользовательский интерфейс и уменьшенные галлюцинации. Эти инновации делают модель гораздо более практичной для разработчиков и значительно расширяют ее объем. Доступность остается неизменной: существующие пользователи API автоматически получают обновление, в то время как веса модели по-прежнему доступны под открытой совместной лицензией на обнимательном лицо.

Сравнительные сравнения производительности и производительности

Результаты DeepSeek-R1-0528 показывают впечатляющие улучшения во всех категориях оценки. В математических задачах значение AIME 2024 выросло с 79,8 до 91,4 процента, HMMT 2025 с 41,7 до 79,4 процента и CNMO 2024 с 78,8 до 86,9 процента. Эти результаты позиционируют модель как одну из самых мощных систем ИИ для решений по математической проблеме по всему миру.

Благодаря программированию, DeepSeek-R1-0528 также демонстрирует значительный прогресс. LiveCodebech улучшился с 63,5 до 73,3 процента, айдер полиглот с 53,3 до 71,6 процента и SWE проверил от 49,2 до 57,6 процента. Рейтинг CodeForces поднялся с 1530 до 1 930 баллов, что классифицирует модель в верхней группе алгоритмических решений проблем. По сравнению с конкурирующими моделями, DeepSeek-R1 достигает 49,2 процента при проверке SWE и, следовательно, опережает Openaai O1-1217 с 48,9 процентами, в то время как Codeforces с 96,3 процентами и рейтинг ELO в 2029 баллах очень близок к OpenAIS.

Общие знания и логические тесты подтверждают широкое повышение эффективности: GPQA-Diamond вырос с 71,5 до 81,0 процента, последний экзамен человечества с 8,5 до 17,7 процента, MMLU-PRO с 84,0 до 85,0 процента и MMLU-REX с 92,9 до 93,4 процента. Только с OpenAIS SimpleQA было небольшое снижение с 30,1 до 27,8 процента. Эти всеобъемлющие улучшения документируют, что DeepSeek-R1-0528 является не только конкурентоспособным в специализированных областях, но и во всем спектре когнитивных задач.

Техническая архитектура и инновации

Техническая основа DeepSeek-R1-0528 основана на высокоразвитой архитектуре MOE (смеси экспертов) с 37 миллиардами активных параметров из общего числа параметров 671 миллиарда и длины контекста 128 000 токенов. Модель реализует усовершенствованное обучение чистке для достижения самостоятельной проверки, многоэтажного отражения и способности спорить, адаптированная для людей. Эта архитектура позволяет модели управлять сложными задачами рассуждений через итеративные процессы мышления, что различает традиционные голосовые модели.

Особенно инновационным аспектом является разработка дистиллированного варианта, DeepSeek-R1-0528-QWEN3-8B, который был создан путем дистилляции мыслей DeepSeek-R1-0528 для после тренировки базы QWEN3-8B. Эта меньшая версия достигает впечатляющих услуг с значительно более низкими требованиями к ресурсам и может быть запускается на графических процессорах с VRAM 8-12 ГБ. Модель достигла современной производительности в тесте AIME 2024 в моделях с открытым исходным кодом с 10-процентным улучшением по сравнению с QWEN3-8B ​​и сопоставимой производительностью, такой как QWEN3-235B.

Методология разработки показывает, что DeepSeek все чаще опирается на после тренировки с обучением подкрепления, что привело к увеличению потребления токенов на 40 процентов в токенах с 71 до 99 миллионов. Это указывает на то, что модель генерирует более длинные и более глубокие ответы без фундаментальных архитектурных изменений.

Позиция на рынке и конкурентная динамика

DeepSeek-R1-0528 утверждает себя в качестве серьезного конкурента для ведущих собственных моделей западных технологических компаний. Согласно искусственному анализу, модель с 68 очками находится на том же уровне, что и Google Gemini 2.5 Pro, и перед моделями, такими как Xais Grok 3 Mini, Metas Llama 4 Maverick и Nvidias Nemotron Ultra. В категории кода DeepSeek-R1-0528 достигает уровня чуть ниже O4-Mini и O3.

Публикация обновления оказала значительное влияние на глобальный ландшафт искусственного интеллекта. Уже первоначальная публикация Deepseek-R1 в январе 2025 года привела к тому, что технологические акции за пределами Китая и поставили под сомнение предположение, что масштабирование ИИ требует огромной вычислительной мощности и инвестиций. Ответ западных конкурентов был быстрым: Google ввел дисконтированные тарифы доступа к Близнецам, в то время как OpenAI снизил цены и представила мини -модель O3, которая нуждалась в меньшей вычислительной мощности.

Интересно, что анализ в стиле текста от EQBench показывает, что DeepSeek-R1 более ориентирован на Google, чем на Openaai, что указывает на то, что в разработке могли использоваться более синтетические выходы Близнецов. Это наблюдение подчеркивает сложные влияния и передачу технологий между различными разработчиками ИИ.

Экономическая эффективность и доступность

Решающим конкурентным преимуществом DeepSeek-R1-0528 является его необычайная экономическая эффективность. Структура цен значительно дешевле, чем у OpenAI: входные токены стоят 0,14 долл. США за миллион токенов за кеш -хиты и 0,55 долл. США на промахах кэша, в то время как выходные токены стоят 2,19 долл. США за токены. Для сравнения, Openai O1 требует 15 долларов для входных токенов и 60 долларов США за токены на миллион, что делает DeepSeek-R1 более чем на 90-95 процентов дешевле.

Microsoft Azure также предлагает DeepSeek-R1 с конкурентоспособными ценами: глобальная версия стоит 0,00135 долл. США для токенов вклада и 0,0054 долл. США на выходные токены на 1000 токенов, в то время как региональная версия имеет немного более высокие цены. Эта цена делает модель особенно привлекательной для компаний и разработчиков, которые хотят использовать высококачественные функциональные возможности ИИ без высоких затрат на собственные решения.

Доступность в качестве модели с открытым исходным кодом в совместной лицензии также обеспечивает коммерческое использование и модификацию без лицензионных сборов. Разработчики могут управлять моделью локально или использовать различные API, которые предлагают гибкость и контроль над реализацией. Для пользователей с ограниченными ресурсами доступна версия для параметров дистиллированной 8 миллиардов, которая работает на оборудовании потребителя с 24 ГБ памяти.

Подходит для:

ИИ Китай наверстает упущенное: что означает успех DeepSeek

DeepSeek-R1-0528 отмечает поворотный момент в глобальном развитии ИИ и демонстрирует, что китайские компании могут разрабатывать модели, несмотря на ограничения на экспорт в США, которые конкурируют с лучшими западными системами. Обновление доказывает, что значительное повышение производительности без фундаментальных архитектурных изменений возможны, если эффективно используются оптимизации после тренировки и повторное обучение. Сочетание максимальной производительности, резко сниженных затрат и вопросов доступности с открытым исходным кодом установила бизнес -модели в отрасли искусственного интеллекта.

Реакция западных конкурентов на успех Deepseek уже показывает первые изменения на рынке: снижение цен на Openaai и Google, а также разработка моделей, способствующих ресурсам. С ожидаемой публикацией DeepSeek-R2, которая была первоначально запланирована на май 2025 года, это конкурентное давление может еще больше усилить. История успеха DeepSeek-R1-0528 показывает, что инновации в ИИ не обязательно требуют массовых инвестиций и арифметических ресурсов, но могут быть достигнуты с помощью умных алгоритмов и эффективных методов развития.

Подходит для:

 

Ваша трансформация искусственного интеллекта, интеграция ИИ и эксперт по индустрии платформ AI

☑️ Наш деловой язык — английский или немецкий.

☑️ НОВИНКА: Переписка на вашем национальном языке!

 

Цифровой пионер — Конрад Вольфенштейн

Конрад Вольфенштейн

Я был бы рад служить вам и моей команде в качестве личного консультанта.

Вы можете связаться со мной, заполнив контактную форму или просто позвоните мне по телефону +49 89 89 674 804 (Мюнхен) . Мой адрес электронной почты: wolfenstein xpert.digital

Я с нетерпением жду нашего совместного проекта.

 

 

☑️ Поддержка МСП в разработке стратегии, консультировании, планировании и реализации.

☑ Создание или перестройка стратегии ИИ

☑️ Пионерское развитие бизнеса


Искусственный интеллект (KI) -AI Блог, точка доступа и контентаAIS AIS ИСПРАВЛЕНИЕ ИСПОЛНЕНИЕ / KIS-KI-SEARK / NEO SEO = NSEO (Оптимизация поисковой системы следующего поколения)Китайxpaper