
Systemy AI: Systemy wysokiego ryzyka i ustawa o AI w praktyce przedsiębiorstw i organów publicznych – Zdjęcie: Xpert.Digital
Prawo UE dotyczące sztucznej inteligencji: Nowe wytyczne Komisji Europejskiej – co firmy muszą teraz wiedzieć
Systemy AI, aplikacje wysokiego ryzyka i ustawa o AI w przedsiębiorstwach i urzędach publicznych
11 lutego 2025 r. Komisja Europejska opublikowała kompleksowe wytyczne dotyczące praktycznego wdrożenia unijnej ustawy o sztucznej inteligencji (AI). Wytyczne te mają pomóc przedsiębiorstwom i organom publicznym lepiej zrozumieć i przestrzegać wymogów ustawy. Szczególny nacisk położono na niedozwolone praktyki w zakresie AI, systemy wysokiego ryzyka oraz środki zapewniające zgodność z przepisami.
Kluczowe aspekty wytycznych
Zabronione praktyki sztucznej inteligencji
Ustawa o sztucznej inteligencji (AI) wyraźnie zakazuje stosowania niektórych aplikacji AI, które uznawane są za stwarzające niedopuszczalnie wysokie ryzyko. Zakazy te obowiązują od 2 lutego 2025 r. Obejmują one między innymi:
- Systemy sztucznej inteligencji wykorzystujące techniki manipulacyjne lub oszukańcze
- Systemy, które wykorzystują w szczególności podatności określonych osób lub grup
- Systemy punktacji społecznej
- Sztuczna inteligencja będzie przewidywać potencjalne przestępstwa bez wyraźnych dowodów
- Niekontrolowane pobieranie obrazów twarzy z Internetu w celu identyfikacji biometrycznej
- Systemy rozpoznawania emocji w miejscu pracy lub placówkach edukacyjnych
- Systemy identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej (z kilkoma wyjątkami dla organów ścigania)
Zakazy te mają na celu zapewnienie, że technologie sztucznej inteligencji będą wykorzystywane w sposób etyczny i odpowiedzialny oraz że nie będą naruszać praw podstawowych.
Praktyczne zastosowanie wytycznych
Liczące 140 stron wytyczne Komisji Europejskiej zawierają liczne praktyczne studia przypadków, które pomagają firmom i organom publicznym prawidłowo klasyfikować systemy sztucznej inteligencji. Chociaż wytyczne te nie są prawnie wiążące, stanowią punkt odniesienia dla organów nadzorczych podczas monitorowania i egzekwowania przepisów.
Znaczenie dla firm i władz
Przedsiębiorstwa i władze muszą aktywnie stosować się do wytycznych, aby:
- aby przejrzeć istniejące systemy AI pod kątem potencjalnych naruszeń
- Aby dokonać niezbędnych korekt na wczesnym etapie
- Aby stworzyć wewnętrzne struktury zgodności w celu uniknięcia kar
Nieprzestrzeganie przepisów może mieć poważne konsekwencje. Sankcje mogą sięgać do 35 milionów euro lub 7% globalnego rocznego obrotu firmy, w zależności od tego, która kwota jest wyższa.
Następne kroki
Zanim wytyczne będą mogły zostać w pełni wdrożone, muszą zostać przetłumaczone na wszystkie języki urzędowe UE i formalnie przyjęte. Niemniej jednak przedsiębiorstwa i organy publiczne powinny aktywnie podjąć kroki w celu przygotowania się do stopniowego wprowadzania ustawy o sztucznej inteligencji. Pełne wejście w życie ustawy planowane jest na 2 sierpnia 2026 r.
Kategoryzacja ryzyka systemów AI
Ustawa UE o sztucznej inteligencji dzieli systemy sztucznej inteligencji na cztery klasy ryzyka, z których każda ma inne wymogi regulacyjne:
1. Niedopuszczalne ryzyko – zabronione systemy sztucznej inteligencji
Systemy te są całkowicie zakazane w UE, ponieważ stanowią poważne zagrożenie dla praw i wolności obywateli. Przykłady obejmują:
- Systemy AI do punktacji społecznej
- Manipulująca sztuczna inteligencja, która nieświadomie wpływa na zachowanie użytkownika
- Identyfikacja biometryczna w czasie rzeczywistym w przestrzeni publicznej na potrzeby egzekwowania prawa (z kilkoma wyjątkami)
- Systemy sztucznej inteligencji wykorzystujące luki wynikające z wieku, niepełnosprawności lub statusu społeczno-ekonomicznego
2. Wysokie ryzyko – wymagane są ścisłe regulacje
Systemy te muszą spełniać surowe wymagania i przejść testy zgodności, zanim będą mogły zostać wprowadzone na rynek. Należą do nich:
- Sztuczna inteligencja jako element bezpieczeństwa w produktach o krytycznym znaczeniu, takich jak urządzenia medyczne, pojazdy czy maszyny
- Samodzielne systemy sztucznej inteligencji mające wpływ na prawa podstawowe (np. sprawdzanie zdolności kredytowej, przesiewanie wniosków, egzekwowanie prawa, administracja sądowa)
Aplikacje te podlegają szerokim wymaganiom dotyczącym przejrzystości, zarządzania ryzykiem, jakości danych i nadzoru ludzkiego.
3. Ograniczone ryzyko – obowiązki przejrzystości
Systemy te muszą informować użytkowników o interakcji ze sztuczną inteligencją. Przykłady obejmują:
- Chatboty
- Deepfake’i służą do tworzenia i manipulowania treściami medialnymi.
4. Minimalne lub żadne ryzyko – bezpłatne korzystanie
Takie systemy nie podlegają żadnym konkretnym obowiązkom prawnym, jednak zaleca się dobrowolne wprowadzenie kodeksu postępowania. Przykłady obejmują:
- Gry wideo oparte na sztucznej inteligencji
- Filtr spamu
Systemy sztucznej inteligencji wysokiego ryzyka i ich regulacja
Ustawa o sztucznej inteligencji definiuje systemy sztucznej inteligencji wysokiego ryzyka jako te, które mają istotny wpływ na bezpieczeństwo, zdrowie lub prawa podstawowe ludzi. Można je podzielić na dwie główne kategorie:
1. Sztuczna inteligencja jako element bezpieczeństwa lub samodzielny produkt
System sztucznej inteligencji jest klasyfikowany jako system wysokiego ryzyka, jeżeli:
- Pełni funkcję elementu bezpieczeństwa produktu podlegającego przepisom harmonizacyjnym UE lub
- Podlega ocenie zgodności, gdyż stwarza potencjalne zagrożenia.
Przykładami takich produktów są:
- Sztuczna inteligencja w urządzeniach medycznych (np. systemy diagnostyczne)
- Systemy wspomagania kierowcy wspomagane sztuczną inteligencją
- Sztuczna inteligencja w produkcji przemysłowej do oceny ryzyka i zapewnienia jakości
2. Samodzielne systemy sztucznej inteligencji wysokiego ryzyka o znaczeniu społecznym
Systemy te wymienione są w załączniku III do ustawy o AI i wpływają na krytyczne obszary społeczeństwa, takie jak:
a) Infrastruktury krytyczne
- Sztuczna inteligencja do sterowania i monitorowania sieci energetycznych lub sieci transportowych
b) Edukacja i zatrudnienie
- Sztuczna inteligencja do automatycznej oceny egzaminów
- Sztuczna inteligencja do selekcji kandydatów i oceny wyników pracowników
c) Dostęp do świadczeń finansowych i socjalnych
- Sprawdzanie wiarygodności kredytowej wspomagane sztuczną inteligencją
- Systemy oceny uprawnień do świadczeń społecznych
d) Egzekwowanie prawa i wymiar sprawiedliwości
- Sztuczna inteligencja do analizy dowodów i wsparcia śledztw
- Systemy wspomagane sztuczną inteligencją do kontroli granic i zarządzania migracjami
e) Identyfikacja biometryczna
- Systemy biometrycznej identyfikacji zdalnej
- Systemy rozpoznawania emocji w środowiskach o krytycznym znaczeniu dla bezpieczeństwa
Wszystkie te obarczone wysokim ryzykiem zastosowania sztucznej inteligencji podlegają rygorystycznym wymaganiom dotyczącym zarządzania ryzykiem, przejrzystości, przetwarzania danych, dokumentacji technicznej i nadzoru ludzkiego.
Ustawa UE o sztucznej inteligencji: Jak firmy mogą przygotować się na surowe przepisy dotyczące sztucznej inteligencji
Unijna ustawa o sztucznej inteligencji (AI) ustanawia jasne ramy dla wykorzystania technologii AI i kładzie szczególny nacisk na ochronę praw podstawowych. Przedsiębiorstwa i organy publiczne muszą dokładnie zapoznać się z nowymi przepisami i odpowiednio dostosować swoje aplikacje AI, aby uniknąć sankcji. Szczególnie rygorystyczne wymogi dotyczą systemów wysokiego ryzyka, które powinny zostać włączone do procesów rozwoju i wdrażania na wczesnym etapie.
Ciągły monitoring przepisów i proaktywne działania w zakresie zgodności są niezbędne, aby zapewnić odpowiedzialne korzystanie ze sztucznej inteligencji (AI) przy jednoczesnym wspieraniu innowacji w ramach prawnych. Nadchodzące lata pokażą, jak ustawa o AI sprawdza się w praktyce i jakie dalsze zmiany mogą być konieczne.
Nadaje się do:
Twój globalny partner w zakresie marketingu i rozwoju biznesu
☑️Naszym językiem biznesowym jest angielski lub niemiecki
☑️ NOWOŚĆ: Korespondencja w Twoim języku narodowym!
Chętnie będę służyć Tobie i mojemu zespołowi jako osobisty doradca.
Możesz się ze mną skontaktować wypełniając formularz kontaktowy lub po prostu dzwoniąc pod numer +49 89 89 674 804 (Monachium) . Mój adres e-mail to: wolfenstein ∂ xpert.digital
Nie mogę się doczekać naszego wspólnego projektu.
