Вибір голосу 📢


Системи AI, системи високого ризику та Закон про AI для практики в компаніях та органах влади

Опубліковано: 13 лютого 2025 р. / Оновлення з: 13 лютого 2025 р. - Автор: Конрад Вольфенштейн

Systems Systems високого ризику та Закон про AI для практики в компаніях та органах влади

Systems Systems високого ризику та Закон про AI для практики в компаніях та органах влади: Xpert.digital

Закон ЄС Кі: Нові вказівки Комісії ЄС-що повинні знати зараз компанії

Системи AI, додатки з високим ризиком та Закон про AI в компаніях та органах влади

Європейська Комісія опублікувала широкі вказівки 11 лютого 2025 року для практичного виконання Закону про Кі (Закон про АІ). Вони призначені для підтримки компаній та органів влади, щоб краще зрозуміти вимоги закону та реалізувати їх відповідно до. Основна увага приділяється забороненій практиці AI, системами високого ризику та заходами для дотримання правил.

Важливі аспекти керівних принципів

Заборонена практика AI

Закон про ШІ прямо забороняє певні програми AI, які класифікуються як неприйнятні ризиковані. Ці заборони діють з 2 лютого 2025 року. До них належать:

  • Системи AI, які використовують маніпулятивні або оманливі методи
  • Системи, які використовують вразливості певних людей або груп цільовим чином
  • Системи соціальної оцінки (соціальний бал)
  • AI для прогнозування потенційних кримінальних дій без чітких доказів
  • Неконтрольоване вискоблювання зображень обличчя з Інтернету для біометричної ідентифікації
  • Системи виявлення емоцій на роботі або в навчальних закладах
  • Біометричні системи ідентифікації в реальному часі в громадських просторах (за кількома винятками для правоохоронних органів)

Ці заборони призначені для того, щоб технології AI використовувались етично та відповідально та не порушують основних прав.

Практичне застосування керівних принципів

Вказівки на 140 сторінок Комісії ЄС містять численні практичні тематичні дослідження для полегшення правильної класифікації їх систем AI. Хоча ці вказівки не є юридично обов'язковими, вони служать довідкою для наглядових органів у моніторингу та застосуванні правил.

Значення для компаній та органів влади

Компанії та органи влади повинні активно боротися з Керівними принципами, щоб:

  1. Щоб перевірити існуючі системи AI на наявність можливих порушень
  2. Робити необхідні корективи на ранній стадії
  3. Побудова внутрішніх структур дотримання, щоб уникнути покарань

Недоруба з правилами може мати серйозні наслідки. Санкції становлять до 35 мільйонів євро або 7% глобального річного обороту компанії, залежно від того, яка сума вища.

Наступні кроки

Перш ніж повністю реалізовані вказівки, вони все ще повинні бути переведені на всі офісні мови ЄС та офіційно прийняті. Тим не менш, компанії та органи влади повинні активно вжити заходів для підготовки до поступового введення Закону про ШІ. Повне застосування закону заплановано на 2 серпня 2026 року.

Категоризація ризику систем ШІ

Закон ЄС АІ ділить системи AI на чотири класи ризику, кожен з яких має різні нормативні вимоги:

1. Неприйнятні системи АІ

Ці системи повністю заборонені в ЄС, оскільки вони представляють значну небезпеку для прав та свобод громадян. Приклади:

  • Системи AI для соціальної оцінки (соціальний бал)
  • Маніпулятивний ШІ, який несвідомо впливає на поведінку користувачів
  • Біометрична ідентифікація в реальному часі в громадських просторах для цілей правоохоронних органів (за кількома винятками)
  • Системи AI, які використовують вразливості через вік, інвалідність або соціально-економічний статус

2. Потрібно суворий регулятор

Ці системи повинні відповідати суворим вимогам та пройти тест на відповідність, перш ніж вони вийдуть на ринок. Вони включають:

  • AI як компонент безпеки в критичних продуктах, таких як медичні пристрої, транспортні засоби або машини
  • Незалежні системи AI з впливами на основні права (наприклад, кредитна перевірка, скринінг заявок, кримінальне переслідування, судова адміністрація)

Широкі вимоги до прозорості, управління ризиками, якості даних та нагляду людини застосовуються до цих додатків.

3. Обмежений ризик - зобов’язання з прозорості

Ці системи повинні інформувати користувачів про те, що вони взаємодіють з ШІ. Приклади:

  • Чат -боти
  • DeepPakes, що використовуються для створення або маніпулювання медіа -вмістом

4. Мінімальний або відсутність ризику - безкоштовне використання

Такі системи не підлягають спеціальним юридичним зобов’язанням, але рекомендується добровільний кодекс поведінки. Приклади:

  • Відеоігри на базі AI
  • Спам -фільтр

Системи ACI високого ризику та їх регулювання

Закон про ШІ визначає системи ACI високого ризику як такі, які мають значний вплив на безпеку, здоров'я чи основні права людини. Їх можна розділити на дві основні категорії:

1. AI як компонент безпеки або незалежний продукт

Система AI класифікується як високий ризик, якщо вона є:

  • Виступає як компонент безпеки продукту, який підпадає під норми гармонізації ЄС, або
  • Оцінка відповідності підлягає потенційній небезпеці.

Прикладами таких продуктів є:

  • AI в медичних пристроях (наприклад, діагностичні системи)
  • Системи допомоги на основі AI на основі AI
  • ШІ в промисловому виробництві для оцінки ризику та забезпечення якості

2. Незалежні системи ACI високого ризику з соціальною актуальністю

Ці системи перераховані в Додатку III Закону про ШІ та стосуються критичних соціальних сфер, таких як:

а) Критична інфраструктура
  • AI для управління та моніторингу електроенергії або мереж трафіку
б) Освіта та працевлаштування
  • AI для автоматизованої оцінки іспитів
  • AI для вибору заявників або оцінки ефективності працівників
в) доступ до фінансових та соціальних виплат
  • Кредитні тести, що підтримуються AI
  • Системи для оцінки права на претензію на соціальні вигоди
г) правоохоронні органи та судові органи
  • AI для аналізу доказів та підтримки розслідування
  • Системи на основі AI для прикордонного контролю та управління міграцією
д) біометрична ідентифікація
  • Біометричні системи віддаленої ідентифікації
  • Системи виявлення емоцій у безпеці -критичні середовища

Для всіх цих додатків з високим ризиком КІ, суворі вимоги щодо управління ризиками, прозорості, обробки даних, технічної документації та моніторингу людини.

Акт AI в ЄС: Як компанії зможуть підготуватися до суворих правил AI

Закон ЄС АІ встановлює чітку основу для використання технологій AI та надає особливе значення захисту основних прав. Компанії та органи влади доводиться інтенсивно мати справу з новими правилами та відповідно адаптувати свої заявки на ШІ, щоб уникнути санкцій. Сувні вимоги застосовуються, особливо для систем високого ризику, які повинні бути інтегровані в процеси розробки та впровадження на ранній стадії.

Постійний моніторинг законодавства та проактивні заходи дотримання є важливими для того, щоб використовувати AI відповідальним та водночас сприяти інноваціям у юридичній основі. У найближчі роки покажуть, як Закон про ШІ підтверджує себе на практиці та які можуть бути необхідні подальші коригування.

Підходить для цього:

 

Ваш глобальний партнер з маркетингу та розвитку бізнесу

☑ Наша ділова мова - англійська чи німецька

☑ Нове: листування на вашій національній мові!

 

Цифровий піонер - Конрад Вольфенштейн

Конрад Вольфенштейн

Я радий бути доступним вам та моїй команді як особистого консультанта.

Ви можете зв’язатися зі мною, заповнивши тут контактну форму або просто зателефонуйте мені за номером +49 89 674 804 (Мюнхен) . Моя електронна адреса: Вольфенштейн xpert.digital

Я з нетерпінням чекаю нашого спільного проекту.

 

 

☑ Підтримка МСП у стратегії, порадах, плануванні та впровадженні

☑ Створення або перестановка цифрової стратегії та оцифрування

☑ Розширення та оптимізація міжнародних процесів продажів

☑ Глобальні та цифрові торгові платформи B2B

☑ Піонерський розвиток бізнесу / маркетинг / PR / Мір


Штучний інтелект (AI) -AI-блог, гаряча точка та контент-центрЦифровий інтелектxpaper