Опубликовано по адресу: 13 февраля 2025 года / обновление по сравнению с: 13 февраля 2025 г. - Автор: Конрад Вольфенштейн
Системы AI Systems Системы высокого риска и Закон об искусственном интеллекте для практики в компаниях и органах власти: xpert.digital
Закон ЕС Ки: новые руководящие принципы комиссии ЕС, что компании должны знать сейчас
Системы ИИ, приложения высокого риска и Закон о искусственном интеллекте в компаниях и властях
Европейская комиссия опубликовала обширные руководящие принципы 11 февраля 2025 года для практической реализации Закона ЕС Ки (Закон об ИИ). Они предназначены для поддержки компаний и органов власти лучше понять требования закона и реализовать их в соответствии с. Особенно сосредоточено на запрещенных практиках ИИ, системах высокого риска и меры для соблюдения правил.
Важные аспекты руководящих принципов
Запретные практики ИИ
Закон ИИ явно запрещает определенные приложения ИИ, которые классифицируются как неприемлемые рискованные. Эти запреты действуют с 2 февраля 2025 года. К ним относятся:
- Системы ИИ, которые используют манипулятивные или обманчивые методы
- Системы, которые используют уязвимости определенных людей или групп целенаправленным образом
- Системы социальной оценки (социальная оценка)
- ИИ для прогнозирования потенциальных преступных действий без четких доказательств
- Неконтролируемое соскабливание изображений лица из Интернета для биометрической идентификации
- Системы обнаружения эмоций на работе или в учебных заведениях
- Биометрические системы идентификации в реальном времени в общественных местах (за некоторыми исключениями для правоохранительных органов)
Эти запреты предназначены для обеспечения того, чтобы технологии ИИ использовались этически и ответственно и не нарушают фундаментальные права.
Практическое применение руководящих принципов
140-страничные руководящие принципы Комиссии ЕС содержат многочисленные практические тематические исследования, чтобы облегчить правильную классификацию их систем ИИ. Хотя эти руководящие принципы не являются юридически обязательными, они служат ссылкой для надзорных органов в мониторинге и обеспечении соблюдения правил.
Значение для компаний и властей
Компании и власти должны активно иметь дело с руководящими принципами, чтобы:
- Чтобы проверить свои существующие системы ИИ на предмет возможных нарушений
- Чтобы внести необходимые коррективы на ранней стадии
- Создание внутренних структур соответствия, чтобы избежать наказаний
Несоответствие правил может иметь серьезные последствия. Санкции варьируются до 35 миллионов евро или 7% от глобального годового оборота компании, в зависимости от того, какая сумма выше.
Следующие шаги
До того, как руководящие принципы будут полностью реализованы, они все равно должны быть переведены на все офисные языки ЕС и официально приняты. Тем не менее, компании и власти должны активно принимать меры для подготовки к постепенному введению Закона об ИИ. Полное применение закона запланировано на 2 августа 2026 года.
Категоризация риска систем ИИ
Закон об ИИ ЕС делит системы ИИ на четыре класса риска, каждый из которых имеет различные нормативные требования:
1. Недопустимые системы ИИ-систем, связанные с риском
Эти системы полностью запрещены в ЕС, потому что они представляют значительную опасность для прав и свобод граждан. Примеры:
- Системы ИИ для социальной оценки (социальная оценка)
- Манипулятивный ИИ, который неосознанно влияет на поведение пользователей
- Биометрическая идентификация в реальном времени в общественных местах для правоохранительных целей (за некоторыми исключениями)
- Системы ИИ, которые используют уязвимости из-за возраста, инвалидности или социально-экономического статуса
2. Высокий риск - требуется строгая регулирование
Эти системы должны соответствовать строгим требованиям и пройти тест на соответствие, прежде чем они выйдут на рынок. Они включают в себя:
- ИИ как компонент безопасности в критических продуктах, таких как медицинские устройства, транспортные средства или машины
- Независимые системы ИИ, влияющие на фундаментальные права (например, проверка кредитования, проверка заявок, уголовное преследование, судебное управление)
К этим приложениям применяются обширные требования к прозрачности, управлению рисками, качеством данных и надзором человека.
3. Ограниченный риск - обязательства по прозрачности
Эти системы должны информировать пользователей, что они взаимодействуют с ИИ. Примеры:
- Чат-боты
- Deeppakes используется для создания или манипулирования медиа -контентом
4. Минимальный или нет риска - бесплатное использование
Такие системы не подлежат специальным юридическим обязательствам, но рекомендуется добровольный кодекс поведения. Примеры:
- Видеоигры на основе ИИ
- Спам -фильтр
Системы ACI высокого риска и их регулирование
Закон AI определяет системы ACI высокого риска как таковые, которые оказывают значительное влияние на безопасность, здоровье или фундаментальные права людей. Их можно разделить на две основные категории:
1. AI как компонент безопасности или независимый продукт
Система ИИ классифицируется как высокий риск, если это либо:
- Действует как компонент безопасности продукта, который подпадает под правила гармонизации ЕС, или
- Оценка соответствия подвержена потенциальной опасности.
Примерами таких продуктов являются:
- ИИ в медицинских устройствах (например, диагностические системы)
- Системы помощи водителю на основе ИИ
- ИИ в промышленном производстве для оценки риска и обеспечения качества
2. Независимые системы ACI высокого риска с социальной значимостью
Эти системы перечислены в Приложении III Закона AI и касаются критических социальных областей, таких как:
а) Критическая инфраструктура
- ИИ для управления и мониторинга электрических сетей или транспортных сетей
б) образование и занятость
- ИИ для автоматической оценки экзаменов
- ИИ для выбора кандидатов или оценки эффективности сотрудников
в) доступ к финансовым и социальным льготам
- Кредитные тесты, поддерживаемые AI
- Системы для оценки права на получение социальных выгод
г) правоохранительные органы и судебные органы
- ИИ для анализа доказательств и поддержки расследования
- Системы на основе ИИ для управления границей и управления миграцией
д) Биометрическая идентификация
- Биометрические системы удаленной идентификации
- Системы обнаружения эмоций в безопасности -Критические среды
Для всех этих приложений KI высокого риска применяются строгие требования к управлению рисками, прозрачность, обработку данных, техническая документация и мониторинг человека.
Акт ИИ ЕС: Как компании могут подготовиться к строгим правилам ИИ
Закон ЕС AI устанавливает четкую основу для использования технологий ИИ и придает особое значение защите фундаментальных прав. Компании и органы власти должны интенсивно общаться с новыми правилами и соответственно адаптировать свои заявки на ИИ, чтобы избежать санкций. Применяются строгие требования, особенно для систем высокого риска, которые должны быть интегрированы в процессы разработки и внедрения на ранней стадии.
Непрерывный мониторинг законодательства и упреждающих мер соблюдения требований имеет важное значение для использования ИИ ответственным и в то же время способствовать инновациям в рамках правовой базы. В ближайшие годы покажут, как Закон ИИ доказывается на практике и какие дальнейшие корректировки могут потребоваться.
Подходит для:
Ваш глобальный партнер по маркетингу и развитию бизнеса
☑️ Наш деловой язык — английский или немецкий.
☑️ НОВИНКА: Переписка на вашем национальном языке!
Я был бы рад служить вам и моей команде в качестве личного консультанта.
Вы можете связаться со мной, заполнив контактную форму или просто позвоните мне по телефону +49 89 89 674 804 (Мюнхен) . Мой адрес электронной почты: wolfenstein ∂ xpert.digital
Я с нетерпением жду нашего совместного проекта.