ЕС усиливает регулирование ИИ: наиболее важные вопросы и ответы на регулирование с августа 2025 года
Предварительная версия Xpert
Выбор голоса 📢
Опубликовано: 30 июля 2025 г. / Обновление с: 30 июля 2025 г. – Автор: Конрад Вольфенштейн
ЕС усиливает регулирование ИИ: наиболее важные вопросы и ответы на регулирование с августа 2025 года – Изображение: Xpert.Digital
Eu-Ki-Office начинается: вот как ЕС контролирует искусственный интеллект
Что такое Указ ЕС Ки и почему он был представлен?
Постановление ЕС Ки, также известное как Закон ЕС (Указа (ЕС) 2024/1689), является первым в мире всеобъемлющим законом о регулировании искусственного интеллекта. Регламент был принят Европейским парламентом 13 марта 2024 года и вступило в силу 1 августа 2024 года.
Основная цель правила - создать гармонизированную правовую основу для использования ИИ в Европейском Союзе. С одной стороны, он предназначен для продвижения инноваций и укрепления доверия к ИИ, но, с другой стороны, убедитесь, что ИИ используется только таким образом, что фундаментальные права и безопасность граждан ЕС остаются сохранившимися. ЕС использует подход, основанный на рисках: чем выше риск от системы ИИ, тем более всеобъемлющими обязательствами.
Регуляция является прямой реакцией на быстрое развитие технологии ИИ и ее обширные социальные последствия. С прощанием, ЕС хотел бы предложить защиту от потенциальных опасностей и создать Европу как ведущее место для надежного ИИ.
Подходит для:
- Системы ИИ, системы высокого риска и Закон о искусственном интеллекте для практики в компаниях и властях
Что такое модели ИИ общего назначения и почему вы в центре внимания?
Согласно определению постановления ЕС Ки, модели общего назначения (GPAI) представляют собой модели ИИ, которые имеют значительное общее использование и способны компетентно выполнять широкий спектр различных задач. Эти модели могут быть интегрированы в различные нисходящие системы или приложения.
Их универсальность характерна для моделей GPAI: они не были разработаны для конкретного приложения, но предлагают широкую функциональность. В отличие от специализированных моделей искусственного интеллекта, модель GPAI не преподается только особой, тщательно застрявшей задачей во время обучения с самого начала.
Известными примерами моделей GPAI являются GPT-4 от OpenAAI (используется в Microsoft Copilot и CHATGPT), Gemini от Google DeepMind, Claude von Anpropic и Llama of Meta. Благодаря их техническому охвату и учебной архитектуре эти системы соответствуют критериям модели GPAI в соответствии с регулированием ЕС.
Специальное регулирование, ориентированное на модели GPAI, основано на их потенциале высокого риска: поскольку они могут использоваться во многих областях, существует особое риск того, что ИИ может привести к приложениям, которые имеют высокий уровень социальных последствий – например, в области здравоохранения, кредитования или в человеческих ресурсах.
Какие обязательства действуют 2 августа 2025 года?
С 2 августа 2025 года вступают в силу обязательные обязательства для поставщиков моделей GPAI. Эти новые правила отмечают решающую веху правила ЕС KI и влияют на различные области:
Обязательства прозрачности
Поставщики должны предоставлять техническую документацию и раскрывать информацию о методах обучения, данных обучения и архитектуре моделей. Эта документация должна содержать общее описание модели ИИ, включая задачи, которые должна выполнять модель, и тип систем ИИ, в которых она может быть интегрирована.
Соответствие авторского права
Поставщики должны гарантировать, что их модели соответствуют закону ЕС об авторском праве. Это включает в себя принятие во внимание веб-сайты с помощью сигналов отказа и создания жалоб для владельцев прав.
Обязанности управления
Соответствующие структуры управления должны быть реализованы для обеспечения соответствия правилам. Это также включает в себя расширенные требования к тестированию и отчетности для особенно рискованных моделей GPAI.
Документационные обязательства
Должно быть создано и опубликовано достаточно подробное резюме контента, используемого для обучения. Это должно облегчить стороны с законным интересом, в том числе владельцев авторских прав, осуществления и обеспечения соблюдения их прав.
Как работает надзор за европейским офисом ИИ?
Европейская офис KI (офис ИИ) был основан 24 января 2024 года Европейской комиссией и играет центральную роль в реализации регулирования ИИ. Организационно он является частью общих коммуникационных сетей, контента и технологий (DG Connect) из Европейской комиссии.
В офисе искусственного интеллекта есть далеко идущие полномочия по мониторингу соответствия правилам GPAI. Он может запросить информацию у компаний, оценить свои модели и потребовать, чтобы дефекты и проблемы припарковались. В случае нарушений или отказов предоставить информацию, чиновники могут удалить модели искусственного интеллекта с рынка или навязывать штрафы.
Институт принимает различные центральные задачи: он разрабатывает обязательный поведенческий кодекс ИИ, координирует европейскую надзорную сеть и контролирует развитие рынка ИИ. Кроме того, офис предназначен для разработки инструментов и методов для оценки более крупных генеративных моделей искусственного интеллекта с рисками.
Офис искусственного интеллекта состоит из пяти специализированных презентаций: регулирование и соответствие, безопасность ИИ, превосходство в области искусственного интеллекта и робототехники, ИИ для общего блага, а также координации инноваций и политики ИИ. Эта структура обеспечивает всестороннюю поддержку для всех аспектов регулирования ИИ.
Каковы штрафы за нарушения требований GPAI?
Постановление ЕС KI предусматривает чувствительные наказания за нарушения требований GPAI. Пять может составлять до 15 миллионов евро или 3 процента от глобального годового оборота – в зависимости от того, какая сумма выше.
За особенно серьезные нарушения, такие как несоблюдение запрета определенных практик искусственного интеллекта в соответствии со статьей 5, могут быть даже наложены штрафы до 35 миллионов евро или 7 процентов мировых годовых продаж. Это подчеркивает определение ЕС в обеспечении соблюдения новых правил.
В дополнение к штрафам, существуют дополнительные юридические последствия: ложная или неполная информация о властях может быть наказана штрафами до 7,5 млн. Евро или 1,5 процента от мировых годовых продаж. Для неадекватной документации и отсутствия сотрудничества с надзорными органами наказания угрожают такой же сумме.
Количество наказаний иллюстрирует серьезность, с которой ЕС преследует соблюдение его регулирования ИИ. Текущий пример - штраф в размере 15 миллионов евро, который итальянский орган по защите данных наложил против OpenAI, даже если он был проведен под GDPR, а не в соответствии с регулированием ИИ.
Подходит для:
Что такое код поведения ИИ и почему он спорен?
Поведенческий код AI (кодекс практики) - это добровольный инструмент, разработанный 13 независимыми экспертами и содержит взносы более 1000 заинтересованных сторон. Европейская комиссия была опубликована 10 июля 2025 года и предназначен для того, чтобы помочь поставщикам моделей GPAI в соответствии с требованиями регулирования ИИ.
Кодекс разделен на три основные главы: прозрачность, авторские права, а также безопасность и защита. Главы о прозрачности и авторском праве направлены на всех поставщиков моделей GPAI, в то время как глава о безопасности и защите имеет отношение только к поставщикам самых передовых моделей с системными рисками.
Компании, которые добровольно подписывают кодекс, выигрывают от меньшей бюрократии и повышенной юридической уверенности. Любой, кто не подписывает код, должен ожидать большего количества запросов от комиссии. Это создает косвенное давление для участия, хотя код официально является добровольным.
Споры возникают из -за различных реакций компаний: хотя Openai был готов к сотрудничеству и хотел бы подписать код, Meta отклонила участие. Джоэл Каплан, директор по глобальным делам в Meta, раскритиковал Кодекс как законно небезопасным и утверждал, что он выходит далеко за рамки закона AI.
Почему мета отказывается подписать кодекс поведения?
Meta решила не подписывать поведенческий код ЕС для моделей GPAI, который представляет собой замечательную конфронтацию с европейским регулированием. Джоэл Каплан, директор по глобальным вопросам в Meta, основал это решение в посте LinkedIn с несколькими критическими моментами.
Основная критика - юридическая неопределенность: Мета утверждает, что Кодекс приносит «ряд юридических неопределенности для разработчиков моделей и предоставляет меры, которые выходят далеко за рамки закона AI». Компания опасается, что неясные составы могут привести к неверным толкованиям и ненужным бюрократическим препятствиям.
Другим аспектом является забота о запрещении инноваций: Meta предупреждает, что код может замедлить разработку передовых моделей ИИ в Европе и помешать европейским компаниям. Компания видит влияние на стартапы и небольшие компании, которые могут быть обездолимыми в соответствии с правилами конкуренции.
Этот отказ примечателен, так как Meta также хочет полагаться на свои собственные услуги искусственного интеллекта, такие как языковая модель Llama 3 в ЕС. Компания планирует использовать свой ИИ через свои собственные платформы, а также в сотрудничестве с поставщиками облачных и оборудования, например, в смартфонах Qualcomm и очках Ray-Ban.
Какие компании поддерживают кодекс поведения и какие отклонили его?
Реакция технологических компаний на поведенческий кодекс ЕС очень отличается и отражает разделение отрасли в отношении европейского регулирования ИИ.
Сторонник кода
OpenAI объявил, что хочет подписать код и описывает его как практическую основу для реализации Закона ЕС Ки. Компания рассматривает кодекс как основу для расширения собственной инфраструктуры и партнерских отношений в Европе. Microsoft также готова сотрудничать: президент Брэд Смит объяснил, что «вероятно, что мы подпишем» и признал сотрудничество офиса ИИ положительно с отрасли.
Критики и негатив
Мета является наиболее выдающимся критиком и явно отказывается подписать. Компания участвует в рядах критиков, которые европейские регулирующие планы по ИИ считают враждебными к инновациям. Более 40 генеральных директоров европейских компаний, в том числе ASML, Philips, Siemens и стартапа KI Mistral, призвали к двунальному переходу от AI ACT в открытом письме.
Не определился
До сих пор Google и Anpropic публично не комментировали их отношение, что указывает на внутренние процессы оценки. Это нежелание может иметь стратегические причины, поскольку обе компании должны взвесить как преимущества юридической уверенности, так и недостатки дополнительных затрат на соответствие.
Комиссия ЕС остается стойкой, несмотря на промышленную резку, и государства по расписанию: требуемое перемещение правил GPAI исключено.
Интеграция независимой и перекрестной платформы AI в масштабах для всех выпусков компании
Интеграция независимой и перекрестной платформы AI в масштабах для всех вопросов компании – Изображение: Xpert.Digital
Ki-GameChanger: наиболее гибкая платформа AI – специальные решения, которые снижают затраты, улучшают свои решения и повышают эффективность
Независимая платформа искусственного интеллекта: интегрирует все соответствующие источники данных компании
- Эта платформа ИИ взаимодействует со всеми конкретными источниками данных
- От SAP, Microsoft, Jira, Confluence, Salesforce, Zoom, Dropbox и многих других систем управления данными
- Быстрая интеграция AI: специально разработанные решения для ИИ для компаний в течение нескольких часов или дней вместо месяцев
- Гибкая инфраструктура: облачный или хостинг в вашем собственном центре обработки данных (Германия, Европа, свободный выбор местоположения)
- Самая высокая безопасность данных: использование в юридических фирмах является безопасным доказательством
- Используйте в широком спектре источников данных компании
- Выбор ваших собственных или различных моделей искусственного интеллекта (DE, EU, USA, CN)
Проблемы, которые решает наша платформа ИИ
- Отсутствие точности обычных решений ИИ
- Защита данных и безопасное управление конфиденциальными данными
- Высокие затраты и сложность индивидуального развития ИИ
- Отсутствие квалифицированного ИИ
- Интеграция ИИ в существующие ИТ -системы
Подробнее об этом здесь:
Eu-Ki-Office начинается: вот как ЕС контролирует искусственный интеллект
Чем нормальные модели GPAI отличаются от моделей с системными рисками?
Постановление ЕС KI предусматривает оценку классификации рисков для моделей GPAI, которые различают нормальные модели GPAI и модели с системными рисками. Это различие имеет решающее значение для применимых обязательств.
Нормальные модели GPAI
Вы должны соответствовать основным требованиям: подробная техническая документация модели, информация о данных, используемых для обучения и соблюдения авторских прав. Эти модели подчиняются стандартным обязательствам в соответствии со статьей 53 Регламента ИИ.
Модели GPAI с системными рисками
Они классифицируются в соответствии со статьей 51 постановления ИИ. Модель считается системно рискованным, если она обладает «высокой воздействием». В качестве эталона модель GPAI имеет системный риск, если «кумулятивное количество расчетов, используемых для его обучения, измеряемого при скользящих запятых операциях, составляет более 10^25».
Дополнительные обязательства применяются к моделям с системными рисками: реализация оценок моделей, включая противоположные тесты, оценку и ослабление возможных системных рисков, преследование и отчетность о серьезных несчастных случаях в Управление ИИ и ответственные национальные органы, а также гарантирование соответствующей защиты кибербезопасности.
Эта градация учитывает, что особенно мощные модели также могут спасти особенно высокие риски и, следовательно, нуждаются в более строгое мониторинг и контроль.
Подходит для:
- Саммит по действию ИИ в Париже: Пробуждение европейской стратегии для ИИ – «Звездная врата Ки Европа» также для стартапов?
Что компании должны документировать и раскрывать конкретно?
Обязательства по документации и прозрачности для поставщиков GPAI являются всесторонне и подробно. Техническая документация в соответствии со статьей 53 и Приложением XI регулирования ИИ должна охватывать различные основные области.
Описание общей модели
Документация должна содержать всестороннее описание модели GPAI, включая задачи, которые должна выполнять модель, тип систем ИИ, в которых она может быть интегрирована, применимых принципов приемлемого использования, даты публикации и методов распределения.
Технические характеристики
Подробная информация об архитектуре и количестве параметров, модальности и формате ввода и расходов, используемых лицензии и технических средствах, используемых для интеграции в системы ИИ.
Процесс разработки и данные обучения
Строительные характеристики модели и процесса обучения, методов и методов обучения, важных проектных решений и принятых допущений, информация об используемых наборах данных, включая методы типа, происхождение и куратор.
Общественное краткое изложение учебного содержания
Стандартизированный шаблон был предоставлен офисом ИИ, который дает обзор данных, используемых для обучения моделей. Это также включает в себя источники, из которых были получены данные, большие записи данных и главные доменные имена.
Документация должна быть доступна как для провайдеров, так и для офиса искусственного интеллекта по запросу и может регулярно обновляться.
Какую роль играют авторские права в новом регулировании?
Авторские права занимают центральную позицию в Указе ЕС Ки, так как многие модели GPAI были обучены с защищенным авторским правом. Кодекс поведения посвящает свою собственную главу этой теме.
Обязательства по соблюдению
Поставщики должны реализовать практические решения для соблюдения закона о консультировании ЕС. Это включает в себя наблюдение за протоколом исключения робота (robots.txt), а также выявление и поддержание резервах прав для ползания в Интернете.
Технические защитные меры
Компании должны внедрить технические защитные меры, чтобы предотвратить создание их моделей, нарушающих авторские права. Это может быть высоким препятствием, особенно для генераторов изображений, таких как Midjourney.
Жалобы
Поставщики должны назвать контактного лица для владельцев прав и настроить процедуру жалобы. Если владельцы прав требуют, чтобы их работы не использовались, компании должны иметь потомство.
Прозрачность в отношении данных обучения
Новый шаблон для общественного резюме учебного контента предназначен для того, чтобы облегчить владельцам авторских прав воспринимать и обеспечить соблюдение их прав. Это означает, что вы можете лучше понять, использовались ли ваши защищенные работы для обучения.
Эти правила направлены на защиту баланса между инновациями в области ИИ и защитой интеллектуальной собственности.
Как регулирование влияет на небольшие компании и стартапы?
Влияние регулирования ЕС Ки на небольшие компании и стартапы является критическим аспектом дебатов о новых правилах. Озабоченность по поводу недостатка меньших игроков выражается с разных сторон.
Бюрократический стресс
Мета утверждает, что строгие требования Кодекса поведения могут особенно ограничить возможности стартапов. Обширные требования к документации и соответствию могут вызвать непропорционально высокие затраты для небольших компаний.
Облегчение для МСП
Тем не менее, регулирование искусственного интеллекта также предоставляет облегчение: малые и средние компании, включая новые стартапы, могут представить техническую документацию в упрощенной форме. Комиссия создает упрощенную форму, ориентированную на потребности небольших и небольших компаний.
Исключения с открытым исходным кодом
Поставщики моделей GPAI с лицензией с открытым исходным кодом, то есть открытыми и свободно лицензированными моделями без системных рисков, не должны соответствовать подробным стандартам документации. Это регулирование может облегчить стартапы и меньших разработчиков.
Равенство
Кодекс поведения был разработан с участием более 1000 заинтересованных сторон, включая малые и средние компании. Это предназначено для того, чтобы учитывать потребности различных размеров компании.
ЕС пытается ограничить бремя для небольших компаний, в то время как сохраняются стандарты высокой безопасности и прозрачности.
Подходит для:
Какова важность 2 августа 2025 года для существующих моделей ИИ?
2 августа 2025 года знаменует собой важный поворотный момент в европейском регулировании ИИ, в результате чего различие проводится между новыми и существующими моделями. Это различие имеет решающее значение для практической реализации регулирования.
Новые модели GPAI
Для новых моделей GPAI, которые запущены после 2 августа 2025 года, полные обязательства по регулированию ИИ применяются немедленно. Это означает, что все обязанности прозрачности, документации и управления являются обязательными с этой ключевой даты.
Существующие модели
Правила применяются только к таким системам, как CHATGPT-4 на рынке с августа 2026 года. Этот переходный период в два года должен дать поставщикам время для соответствующего адаптации своих существующих систем и для реализации новых требований.
Реализация офиса ИИ
Европейский офис искусственного интеллекта обеспечит соблюдение правил через год после вступления в силу (то есть с августа 2026 года) для новых моделей и через два года для существующих моделей. Это дает властям время для строительства своих способностей и развития единообразных принудительных практик.
Переходный мост через кодекс поведения
Компании уже могут подписать добровольный код поведения искусственного интеллекта в качестве переходной помощи. Затем эти компании извлекают выгоду из меньшей бюрократии и повышенной юридической уверенности по сравнению с компаниями, которые выбирают другие методы соответствия.
Каковы долгосрочные последствия на европейский рынок ИИ?
Ожидается, что Указ ЕС KI будет иметь далеко идущие и постоянные последствия на европейский рынок искусственного интеллекта. Эти изменения касаются как конкурентной позиции в Европе, так и в развитии индустрии ИИ в целом.
Юридическая безопасность как конкурентное преимущество
Компании, которые рано полагаются на прозрачность, управление и соответствие, остаются устойчивыми на европейском рынке. Правила Европы могут сделать Европу привлекательным местоположением для надежного ИИ и укрепить доверие инвесторов и клиентов.
Глобальный стандартный сеттер
Подобно GDPR, Указ ЕС Ки может развивать международную трансляцию. Эксперты ожидают, что Закон ЕС поощряет развитие стандартов правительства ИИ и этики по всему миру. Европа может зарекомендовать себя как глобальная точка отсчета для ответственного развития ИИ.
Инновационная экосистема
ЕС продвигает несколько мер для поддержки исследований ИИ и облегчения перехода результатов исследований. Сеть из более чем 200 европейских цифровых инновационных центров (EDIH) предназначена для продвижения широкого введения ИИ.
Консолидация рынка
: Строгие нормативные требования могут привести к консолидации рынка, поскольку меньшие поставщики могут столкнуться с затратами на соблюдение требований. В то же время могут развиваться новые бизнес -модели, связанные с решениями соответствия.
Конкурентные риски
Компании, которые не действуют во времени, рискуют юридической неопределенностью и конкурентными недостатками. Высокие наказания и строгая уверенность могут оказать существенное влияние на бизнес -модели.
Долгосрочный эффект зависит от того, преуспевает ли Европа успешно сбалансировать инновации и регулирование и установить себя как ведущее место для надежного ИИ.
Ваша трансформация искусственного интеллекта, интеграция ИИ и эксперт по индустрии платформ AI
☑️ Наш деловой язык — английский или немецкий.
☑️ НОВИНКА: Переписка на вашем национальном языке!
Я был бы рад служить вам и моей команде в качестве личного консультанта.
Вы можете связаться со мной, заполнив контактную форму или просто позвоните мне по телефону +49 89 89 674 804 (Мюнхен) . Мой адрес электронной почты: wolfenstein ∂ xpert.digital
Я с нетерпением жду нашего совместного проекта.