ЄС посилює регулювання ШІ: найважливіші питання та відповіді на регулювання з серпня 2025 року
Xpert попередня випуск
Вибір голосу 📢
Опубліковано: 30 липня 2025 р. / Оновлення від: 30 липня 2025 р. – Автор: Конрад Вольфенштейн
ЄС посилює регулювання ШІ: Найважливіші питання та відповіді на регулювання з серпня 2025 р. – Зображення: xpert.digital
Починається офіс ЄС-Кі: Ось як ЄС відстежує штучний інтелект
Що таке розпорядження ЄС Кі і чому він був введений?
Постанова ЄС Кі, також відомий як Закон про АІ ЄС (Постанова (ЄС) 2024/1689), є першим у світі всебічним законом щодо регулювання штучного інтелекту. Положення було прийнято Європейським парламентом 13 березня 2024 року і набули чинності 1 серпня 2024 року.
Основна мета регулювання - створити гармонізовану юридичну основу для використання ШІ в Європейському Союзі. З одного боку, він призначений для сприяння інноваціям та зміцненню довіри до ШІ, але, з іншого боку, переконайтеся, що AI використовується лише таким чином, щоб основні права та безпека громадян ЄС залишалися збереженими. ЄС дотримується підходу на основі ризику: чим вище ризик з боку системи ШІ, тим всебічніші зобов'язання.
Регламент - це пряма реакція на швидкий розвиток технології AI та її широкі соціальні наслідки. З прощанням, ЄС хотів би запропонувати захист від потенційних небезпек та створити Європу як провідне місце для надійного ШІ.
Підходить для цього:
Що таке моделі AI загального призначення і чому ви в центрі уваги?
Відповідно до визначення розпорядження ЄС Кі, моделі загального призначення-AI (GPAI)-це моделі AI, які мають значну загальну зручність та здатні грамотно виконувати широкий спектр різних завдань. Ці моделі можуть бути інтегровані в різноманітні системи або програми вниз за течією.
Їх універсальність характерна для моделей GPAI: вони не були розроблені для конкретного застосування, але пропонують широку функціональність. На відміну від спеціалізованих моделей AI, модель GPAI не навчається лише особливих, тісно застрягаючих під час тренувань з самого початку.
Відомі приклади моделей GPAI-GPT-4 від OpenAai (використовується в Microsoft Copilot та Chatgpt), Gemini від Google Deepmind, Claude von antropic та Llama of Meta. Завдяки їх технічній архітектурі охоплення та навчання, ці системи відповідають критеріям моделі GPAI відповідно до Регламенту ЄС.
Спеціальна регуляторна спрямованість на моделі GPAI ґрунтується на їх високому потенціалі ризику: оскільки вони можуть бути використані в багатьох сферах, існує особливий ризик, що ШІ може призвести до застосувань, які мають високий рівень соціальних ефектів – наприклад, в охороні здоров'я, кредитування або в людських ресурсах.
Які зобов'язання діють 2 серпня 2025 року?
З 2 серпня 2025 р. Наберуть чинності зобов’язання зобов’язань для постачальників моделей GPAI. Ці нові норми відзначають рішучу віху часу регулювання ЄС Кі та впливають на різні сфери:
Зобов'язання прозорості
Постачальники повинні надати технічну документацію та розкривати інформацію про методи навчання, дані про навчання та архітектуру моделі. Ця документація повинна містити загальний опис моделі AI, включаючи завдання, які повинна виконувати модель, та тип систем AI, в яких вона може бути інтегрована.
Відповідність авторських прав
Постачальники повинні гарантувати, що їх моделі відповідають законодавству про авторські права ЄС. Це включає врахунок веб-сайтів із сигналами відмови та налаштування скарг на власників прав.
Обов’язки з управління
Для забезпечення дотримання правил повинні бути виконані відповідні структури управління. Це також включає розширені вимоги до тесту та звітності для особливо ризикованих моделей GPAI.
Зобов’язання з документацією
Необхідно створити та опублікувати досить детальний підсумок вмісту, який використовується для навчання. Це повинно сприяти сторонам з законним інтересом, включаючи власників авторських прав, здійснення та виконання їх прав.
Як працює нагляд за європейським офісом ШІ?
Європейський офіс КІ (офіс AI) був заснований 24 січня 2024 року Європейською комісією та відіграє центральну роль у виконанні регламенту AI. Організовано, це є частиною мереж, змісту та технологій Загального дирекції, змісту та технологій (DG Connect) Європейської комісії.
Офіс AI має далекосяжні повноваження для контролю за дотриманням правил GPAI. Він може вимагати інформації від компаній, оцінити їхні моделі та вимагати, щоб дефекти та проблеми були припарковані. У випадку порушення або відмови надання інформації чиновники можуть усунути моделі AI з ринку або накладати штрафи.
Установа бере на себе різні центральні завдання: він розробляє обов'язковий код поведінки AI, координує Європейську наглядову мережу та контролює розвиток ринку ШІ. Крім того, офіс призначений для розробки інструментів та методів для оцінки більших генеративних моделей AI для ризиків.
Офіс AI складається з п'яти спеціалізованих презентацій: регулювання та дотримання, безпека AI, досконалість в AI та робототехніку, AI для загального блага, а також координації інновацій та політики AI. Ця структура дозволяє вичерпну підтримку для всіх аспектів регулювання ШІ.
Які штрафи за порушення вимог GPAI?
Постанова ЄС Кі передбачає чутливі покарання за порушення вимог GPAI. Фіннінг може становити до 15 мільйонів євро або 3 відсотки від глобального річного обороту – залежно від того, яка сума вища.
Для особливо серйозних порушень, таких як невідповідність заборони певних практик ШІ відповідно до статті 5, штрафи до 35 мільйонів євро або 7 відсотків глобальних щорічних продажів можуть бути навіть накладені. Це підкреслює визначення ЄС щодо застосування нових правил.
Окрім штрафів, є подальші юридичні наслідки: неправдива або неповна інформація про владу може бути покарана штрафами до 7,5 мільйонів євро або 1,5 відсотка глобальних річних продажів. Для неадекватної документації та відсутності співпраці з наглядовими органами покарання загрожують стільки ж.
Сума покарань ілюструє серйозність, з якою ЄС здійснює виконання свого регулювання AI. Поточним прикладом є штраф у розмірі 15 мільйонів євро, які італійський орган захисту даних наклав проти OpenAI, навіть якщо він був здійснений за GDPR, а не в рамках регламенту AI.
Підходить для цього:
Що таке код поведінки AI і чому він суперечливий?
Кодекс поведінки AI (кодекс практики) - це добровільний інструмент, який був розроблений 13 незалежними експертами і містить внески понад 1000 зацікавлених сторін. Він був опублікований 10 липня 2025 року Європейською комісією і покликаний допомогти постачальникам моделей GPAI для задоволення вимог Регламенту AI.
Код розділений на три основні глави: прозорість, авторські права, а також безпека та захист. Глави про прозорість та авторські права спрямовані на всіх постачальників моделей GPAI, тоді як глава про безпеку та захист є актуальною лише для постачальників найсучасніших моделей із системними ризиками.
Компанії, які добровільно підписують користь від коду від меншої бюрократії та підвищують юридичну визначеність. Кожен, хто не підписує код, повинен очікувати більше запитів від Комісії. Це створює непрямий тиск для участі, хоча код офіційно є добровільним.
Суперечка виникає внаслідок різних реакцій компаній: в той час як OpenAI був готовий до співпраці і хотів би підписати код, META відхилив участь. Джоел Каплан, головний директор з питань глобальних питань META, критикував кодекс як юридично невпевнений і стверджував, що він виходить далеко за рамки закону про ШІ.
Чому мета відмовляється підписувати кодекс поведінки?
META вирішив не підписувати код поведінки ЄС для моделей GPAI, який являє собою чудове протистояння з європейським регулюванням. Джоел Каплан, головний директор з питань глобальних справ META, заснував це рішення у посту LinkedIn з кількома критичними моментами.
Основним моментом критики є юридична невизначеність: META стверджує, що Кодекс приносить "ряд юридичних невизначеностей для розробників моделей та надає заходи, що виходять далеко за рамки закону про ШІ". Компанія побоюється, що незрозумілі формулювання можуть призвести до неправильних тлумачень та непотрібних бюрократичних перешкод.
Іншим аспектом є занепокоєння щодо гальмування інновацій: META попереджає, що код може уповільнити розвиток передових моделей AI в Європі та перешкоджати європейським компаніям. Компанія бачить вплив на стартапів та менших компаній, які можуть бути знедолені правилами в конкуренції.
Ця відмова є чудовою, оскільки META також хоче покластися на власні послуги AI, такі як мова мови Llama 3 в ЄС. Компанія планує використовувати свій AI через власні платформи, а також у співпраці з хмарними та апаратними постачальниками, наприклад, у смартфонах Qualcomm та окулярів Ray-Ban.
Які компанії підтримують Кодекс поведінки та який його відхилили?
Реакції технологічних компаній щодо поведінкового кодексу ЄС дуже різні і відображають поділ галузі щодо європейського регулювання ШІ.
Прихильник коду
OpenAI оголосив, що хоче підписати код і описує його як практичну основу для виконання Закону про Кі Кі. Компанія розглядає код як основу для розширення власної інфраструктури та партнерств у Європі. Microsoft також готова до співпраці: Президент Бред Сміт пояснив, що ", мабуть, ми підпишемо" і визнавав співпрацю офісу AI позитивно з галуззю.
Критики та негатив
Мета - найвидатніший критик і явно відмовляється підписувати. Компанія бере участь у рядах критиків, що регуляторні плани Європи щодо ШІ вважають ворожі до інновацій. Понад 40 керівників європейських компаній, включаючи ASML, Philips, Siemens та KI Startup Mistral, закликали до дворічного переходу від Закону про ШІ у відкритому листі.
Не визначений
Поки що Google та антроп не публічно коментували їхнє ставлення, що вказує на внутрішні процеси оцінки. Це небажання може мати стратегічні причини, оскільки обидві компанії повинні зважувати як переваги юридичної визначеності, так і недоліки додаткових витрат на дотримання.
Комісія ЄС залишається непохитною, незважаючи на промислове різання та держави за графіком: необхідне зміщення правил GPAI виключається.
Інтеграція незалежної та перехресної платформи AI-джерела для всіх питань компанії
Інтеграція незалежної та перехресної платформи AI-джерела для всіх питань компанії – Зображення: xpert.digital
Ki-Gamechanger: Найбільш гнучка платформа AI – кременовані рішення, що зменшують витрати, покращують свої рішення та підвищують ефективність
Незалежна платформа AI: інтегрує всі відповідні джерела даних компанії
- Ця платформа AI взаємодіє з усіма конкретними джерелами даних
- Від SAP, Microsoft, Jira, Confluence, Salesforce, Zoom, Dropbox та багатьох інших систем управління даними
- Швидка інтеграція AI: індивідуальні рішення AI для компаній у години чи дні замість місяців
- Гнучка інфраструктура: хмарна або хостинг у власному центрі обробки даних (Німеччина, Європа, вільний вибір місця розташування)
- Найвища безпека даних: Використання в юридичних фірмах - це безпечні докази
- Використовуйте в широкому спектрі джерел даних компанії
- Вибір власних або різних моделей AI (DE, EU, США, CN)
Виклики, які вирішує наша платформа AI
- Відсутність точності звичайних рішень AI
- Захист даних та безпечне управління конфіденційними даними
- Високі витрати та складність індивідуального розвитку ШІ
- Відсутність кваліфікованого ШІ
- Інтеграція ШІ в існуючі ІТ -системи
Детальніше про це тут:
Починається офіс ЄС-Кі: Ось як ЄС відстежує штучний інтелект
Чим нормальні моделі GPAI відрізняються від таких системних ризиків?
Постанова ЄС Кі передбачає класифікацію ризику для моделей GPAI, які розрізняють звичайні моделі GPAI та ті, що мають системні ризики. Ця відмінність має вирішальне значення для застосовних зобов'язань.
Звичайні моделі GPAI
Ви повинні відповідати основним вимогам: детальна технічна документація моделі, інформація про дані, що використовуються для навчання та дотримання авторських прав. Ці моделі підлягають стандартним зобов’язанням відповідно до статті 53 Регламенту AI.
Моделі GPAI з системними ризиками
Вони класифікуються відповідно до статті 51 розпорядження AI. Модель вважається системно ризикованою, якщо вона має "високий вплив". Як еталон, модель GPAI має системний ризик, якщо "кумулятивна кількість розрахунків, що використовуються для його навчання, виміряні в операціях з ковзанням коми, становить більше 10^25".
Додаткові зобов’язання застосовуються до моделей із системними ризиками: впровадження оцінок моделей, включаючи протилежні тести, оцінку та ослаблення можливих системних ризиків, переслідування та звітування про серйозні нещасні нещасні нещасні випадки та відповідальні національні органи влади, а також гарантують відповідний захист кібербезпеки.
Ця градація враховує, що особливо потужні моделі також можуть врятувати особливо високі ризики, а тому потребують більш жорсткого моніторингу та контролю.
Підходить для цього:
- Саміт AI Action в Парижі: пробудження європейської стратегії AI – "Stargate Ki Europa" також для стартапів?
Що компанії повинні документувати та розкривати конкретно?
Зобов'язання з документації та прозорості для постачальників GPAI є всебічно та детальними. Технічна документація відповідно до статті 53 та додаток XI Регламенту AI повинна охоплювати різні основні області.
Загальний опис моделі
Документація повинна містити вичерпний опис моделі GPAI, включаючи завдання, які повинна виконувати модель, тип систем AI, в яких вона може бути інтегрована, застосовні принципи прийнятного використання, дату публікації та способи розподілу.
Технічні характеристики
Детальна інформація про архітектуру та кількість параметрів, модальність та формат введення та витрат, ліцензії та технічні засоби, що використовуються для інтеграції в системи AI.
Процес розробки та дані навчання
Технічні характеристики моделі та навчальний процес, методи навчання та методи, важливі проектні рішення та припущення, інформація про використовувані набори даних, включаючи тип, походження та кураторські методи.
Публічний підсумок навчального змісту
Стандартизований шаблон був наданий офісом AI, який дає огляд даних, що використовуються для навчання моделей. Сюди також входять джерела, з яких отримані дані, великі записи даних та найвищі доменні імена.
Документація повинна бути доступною як для постачальників нижче за течією, так і для офісу AI за запитом, і може бути регулярно оновлюватися.
Яку роль відіграють авторські права в новому регламенті?
Авторські права займає центральну позицію в указу ЄС Кі, оскільки багато моделей GPAI навчалися з вмістом захищеного авторським правом. Кодекс поведінки присвячує власну главу цій темі.
Зобов'язання щодо дотримання
Постачальники повинні реалізувати практичні рішення для дотримання законодавства про консалтинг ЄС. Це включає спостереження за протоколом виключення роботів (robots.txt) та визначення та підтримання резервування прав для веб -повзання.
Технічні захисні заходи
Компанії повинні застосовувати технічні захисні заходи, щоб запобігти генеруванню вмісту авторських прав. Це може бути висока перешкода, особливо для генераторів зображень, таких як Midjourney.
Скарги
Постачальники повинні назвати контактну особу для власників прав та встановити процедуру скарги. Якщо власники прав вимагають, щоб їхні роботи не використовувались, компанії повинні мати потомство.
Прозорість щодо навчальних даних
Новий шаблон для публічного підсумку навчального змісту призначений для сприяння власникам авторських прав на сприйняття та виконання своїх прав. Це означає, що ви можете краще зрозуміти, чи використовували ваші захищені твори для навчання.
Ці правила мають на меті захистити баланс між інноваціями в районі ШІ та захистом інтелектуальної власності.
Як регулювання впливає на менші компанії та стартапи?
Вплив регламенту ЄС Кі на менші компанії та стартапи є критичним аспектом дебатів щодо нових правил. Занепокоєння щодо недоліків менших гравців виражається з різних сторін.
Бюрократичний стрес
Мета стверджує, що суворі вимоги Кодексу поведінки можуть особливо обмежити можливості стартапів. Широкі вимоги до документації та відповідності можуть спричинити непропорційно високі витрати для менших компаній.
Полегшення для малих та середніх підприємств
Однак регулювання AI також забезпечує полегшення: малі та середні компанії, включаючи нові стартапи, можуть представити технічну документацію у спрощеному вигляді. Комісія створює спрощену форму, яка орієнтована на потреби малих та малих компаній.
Винятки з відкритим кодом
Постачальники моделей GPAI з ліцензією з відкритим кодом, тобто відкритими та вільно ліцензованими моделями без системних ризиків, не повинні відповідати детальним стандартам документації. Цей регламент може полегшити стартапи та менші розробники.
Рівність
Кодекс поведінки був розроблений за участю понад 1000 зацікавлених сторін, включаючи невеликі та середні компанії. Це покликане забезпечити врахування потреб різних розмірів компанії.
ЄС намагається обмежити тягар для менших компаній, в той же час підтримуються високі стандарти безпеки та прозорості.
Підходить для цього:
Яке значення 2 серпня 2025 року для існуючих моделей AI?
2 серпня 2025 року відзначає важливий перелом європейського регулювання ШІ, завдяки чому різниця робиться між новими та існуючими моделями. Ця відмінність має вирішальне значення для практичного впровадження регулювання.
Нові моделі GPAI
Для нових моделей GPAI, які запускаються після 2 серпня 2025 року, повні зобов'язання Регламенту AI застосовуються негайно. Це означає, що всі обов'язки прозорості, документації та управління є обов'язковими з цієї ключової дати.
Існуючі моделі
Правила застосовуються лише до таких систем, як Chatgpt-4 на ринку з серпня 2026 року. Цей перехідний період двох років повинен дати постачальникам час, щоб відповідно адаптувати свої існуючі системи та реалізувати нові вимоги.
Реалізація в офісі AI
Європейський офіс AI буде виконувати правила через рік після набуття чинності (тобто з серпня 2026 р.) Для нових моделей і через два роки для існуючих моделей. Це дає владі час на створення своїх можливостей та розробки єдиних практик правозастосування.
Перехідний міст через кодекс поведінки
Компанії вже можуть підписати добровільний код поведінки AI як допомогу на перехід. Потім ці компанії отримують користь від меншої бюрократії та підвищення юридичної визначеності порівняно з компаніями, які обирають інші методи дотримання.
Які довгострокові наслідки на європейському ринку ШІ?
Очікується, що указ ЄС Кі матиме далекосяжні та постійні наслідки на європейському ринку ШІ. Ці зміни стосуються як конкуренції в Європі, так і розвиток галузі ШІ в цілому.
Юридична безпека як конкурентна перевага
Компанії, які на початку покладаються на прозорість, управління та відповідність, залишаються стійкими на європейському ринку. Уніфіковані правила можуть зробити Європу привабливим місцем для надійного ШІ та зміцнити довіру інвесторів та клієнтів.
Глобальний стандартний сеттер
Подібно до GDPR, постанова ЄС Кі може розвивати міжнародну трансляцію. Експерти очікують, що Закон ЄС АІ сприяє розвитку стандартів уряду та етики AI у всьому світі. Європа могла б зарекомендувати себе як глобальна орієнтир для відповідального розвитку ШІ.
Інноваційна екосистема
ЄС сприяє кількох заходів для підтримки досліджень АІ та сприяння переходу результатів досліджень. Мережа понад 200 європейських цифрових інноваційних центрів (EDIH) має на меті сприяти широкому впровадженню ШІ.
Консолідація ринку
: Суворі регуляторні вимоги можуть призвести до консолідації ринку, оскільки меншими постачальниками можуть виникнути труднощі з приводу дотримання витрат. У той же час, можуть розвиватися нові бізнес -моделі навколо рішень щодо відповідності.
Змагальні ризики
Компанії, які не діють у часі, ризикують юридичною невизначеністю та конкурентними недоліками. Високі покарання та сувора наполегливість можуть мати значний вплив на бізнес -моделі.
Довгостроковий ефект залежить від того, чи вдається Європі успішно врівноважувати інновації та регулювання та встановити себе як провідне місце для надійного ШІ.
Ваша трансформація AI, інтеграція AI та експерт з питань індустрії платформ AI
☑ Наша ділова мова - англійська чи німецька
☑ Нове: листування на вашій національній мові!
Я радий бути доступним вам та моїй команді як особистого консультанта.
Ви можете зв’язатися зі мною, заповнивши тут контактну форму або просто зателефонуйте мені за номером +49 89 674 804 (Мюнхен) . Моя електронна адреса: Вольфенштейн ∂ xpert.digital
Я з нетерпінням чекаю нашого спільного проекту.