Ikona strony internetowej Xpert.Cyfrowy

Systemy AI, systemy wysokiego ryzyka i Ustawa AI dla praktyki w firmach i władzach

Systemy wysokiego ryzyka AI Systems i Ustawa AI dla praktyki w firmach i władzach

Systemy AI: Systemy wysokiego ryzyka i ustawa o AI w praktyce przedsiębiorstw i organów publicznych – Zdjęcie: Xpert.Digital

Prawo UE dotyczące sztucznej inteligencji: Nowe wytyczne Komisji Europejskiej – co firmy muszą teraz wiedzieć

Systemy AI, aplikacje wysokiego ryzyka i ustawa o AI w przedsiębiorstwach i urzędach publicznych

11 lutego 2025 r. Komisja Europejska opublikowała kompleksowe wytyczne dotyczące praktycznego wdrożenia unijnej ustawy o sztucznej inteligencji (AI). Wytyczne te mają pomóc przedsiębiorstwom i organom publicznym lepiej zrozumieć i przestrzegać wymogów ustawy. Szczególny nacisk położono na niedozwolone praktyki w zakresie AI, systemy wysokiego ryzyka oraz środki zapewniające zgodność z przepisami.

Kluczowe aspekty wytycznych

Zabronione praktyki sztucznej inteligencji

Ustawa o sztucznej inteligencji (AI) wyraźnie zakazuje stosowania niektórych aplikacji AI, które uznawane są za stwarzające niedopuszczalnie wysokie ryzyko. Zakazy te obowiązują od 2 lutego 2025 r. Obejmują one między innymi:

  • Systemy sztucznej inteligencji wykorzystujące techniki manipulacyjne lub oszukańcze
  • Systemy, które wykorzystują w szczególności podatności określonych osób lub grup
  • Systemy punktacji społecznej
  • Sztuczna inteligencja będzie przewidywać potencjalne przestępstwa bez wyraźnych dowodów
  • Niekontrolowane pobieranie obrazów twarzy z Internetu w celu identyfikacji biometrycznej
  • Systemy rozpoznawania emocji w miejscu pracy lub placówkach edukacyjnych
  • Systemy identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej (z kilkoma wyjątkami dla organów ścigania)

Zakazy te mają na celu zapewnienie, że technologie sztucznej inteligencji będą wykorzystywane w sposób etyczny i odpowiedzialny oraz że nie będą naruszać praw podstawowych.

Praktyczne zastosowanie wytycznych

Liczące 140 stron wytyczne Komisji Europejskiej zawierają liczne praktyczne studia przypadków, które pomagają firmom i organom publicznym prawidłowo klasyfikować systemy sztucznej inteligencji. Chociaż wytyczne te nie są prawnie wiążące, stanowią punkt odniesienia dla organów nadzorczych podczas monitorowania i egzekwowania przepisów.

Znaczenie dla firm i władz

Przedsiębiorstwa i władze muszą aktywnie stosować się do wytycznych, aby:

  1. aby przejrzeć istniejące systemy AI pod kątem potencjalnych naruszeń
  2. Aby dokonać niezbędnych korekt na wczesnym etapie
  3. Aby stworzyć wewnętrzne struktury zgodności w celu uniknięcia kar

Nieprzestrzeganie przepisów może mieć poważne konsekwencje. Sankcje mogą sięgać do 35 milionów euro lub 7% globalnego rocznego obrotu firmy, w zależności od tego, która kwota jest wyższa.

Następne kroki

Zanim wytyczne będą mogły zostać w pełni wdrożone, muszą zostać przetłumaczone na wszystkie języki urzędowe UE i formalnie przyjęte. Niemniej jednak przedsiębiorstwa i organy publiczne powinny aktywnie podjąć kroki w celu przygotowania się do stopniowego wprowadzania ustawy o sztucznej inteligencji. Pełne wejście w życie ustawy planowane jest na 2 sierpnia 2026 r.

Kategoryzacja ryzyka systemów AI

Ustawa UE o sztucznej inteligencji dzieli systemy sztucznej inteligencji na cztery klasy ryzyka, z których każda ma inne wymogi regulacyjne:

1. Niedopuszczalne ryzyko – zabronione systemy sztucznej inteligencji

Systemy te są całkowicie zakazane w UE, ponieważ stanowią poważne zagrożenie dla praw i wolności obywateli. Przykłady obejmują:

  • Systemy AI do punktacji społecznej
  • Manipulująca sztuczna inteligencja, która nieświadomie wpływa na zachowanie użytkownika
  • Identyfikacja biometryczna w czasie rzeczywistym w przestrzeni publicznej na potrzeby egzekwowania prawa (z kilkoma wyjątkami)
  • Systemy sztucznej inteligencji wykorzystujące luki wynikające z wieku, niepełnosprawności lub statusu społeczno-ekonomicznego

2. Wysokie ryzyko – wymagane są ścisłe regulacje

Systemy te muszą spełniać surowe wymagania i przejść testy zgodności, zanim będą mogły zostać wprowadzone na rynek. Należą do nich:

  • Sztuczna inteligencja jako element bezpieczeństwa w produktach o krytycznym znaczeniu, takich jak urządzenia medyczne, pojazdy czy maszyny
  • Samodzielne systemy sztucznej inteligencji mające wpływ na prawa podstawowe (np. sprawdzanie zdolności kredytowej, przesiewanie wniosków, egzekwowanie prawa, administracja sądowa)

Aplikacje te podlegają szerokim wymaganiom dotyczącym przejrzystości, zarządzania ryzykiem, jakości danych i nadzoru ludzkiego.

3. Ograniczone ryzyko – obowiązki przejrzystości

Systemy te muszą informować użytkowników o interakcji ze sztuczną inteligencją. Przykłady obejmują:

  • Chatboty
  • Deepfake’i służą do tworzenia i manipulowania treściami medialnymi.

4. Minimalne lub żadne ryzyko – bezpłatne korzystanie

Takie systemy nie podlegają żadnym konkretnym obowiązkom prawnym, jednak zaleca się dobrowolne wprowadzenie kodeksu postępowania. Przykłady obejmują:

  • Gry wideo oparte na sztucznej inteligencji
  • Filtr spamu

Systemy sztucznej inteligencji wysokiego ryzyka i ich regulacja

Ustawa o sztucznej inteligencji definiuje systemy sztucznej inteligencji wysokiego ryzyka jako te, które mają istotny wpływ na bezpieczeństwo, zdrowie lub prawa podstawowe ludzi. Można je podzielić na dwie główne kategorie:

1. Sztuczna inteligencja jako element bezpieczeństwa lub samodzielny produkt

System sztucznej inteligencji jest klasyfikowany jako system wysokiego ryzyka, jeżeli:

  • Pełni funkcję elementu bezpieczeństwa produktu podlegającego przepisom harmonizacyjnym UE lub
  • Podlega ocenie zgodności, gdyż stwarza potencjalne zagrożenia.

Przykładami takich produktów są:

  • Sztuczna inteligencja w urządzeniach medycznych (np. systemy diagnostyczne)
  • Systemy wspomagania kierowcy wspomagane sztuczną inteligencją
  • Sztuczna inteligencja w produkcji przemysłowej do oceny ryzyka i zapewnienia jakości

2. Samodzielne systemy sztucznej inteligencji wysokiego ryzyka o znaczeniu społecznym

Systemy te wymienione są w załączniku III do ustawy o AI i wpływają na krytyczne obszary społeczeństwa, takie jak:

a) Infrastruktury krytyczne
  • Sztuczna inteligencja do sterowania i monitorowania sieci energetycznych lub sieci transportowych
b) Edukacja i zatrudnienie
  • Sztuczna inteligencja do automatycznej oceny egzaminów
  • Sztuczna inteligencja do selekcji kandydatów i oceny wyników pracowników
c) Dostęp do świadczeń finansowych i socjalnych
  • Sprawdzanie wiarygodności kredytowej wspomagane sztuczną inteligencją
  • Systemy oceny uprawnień do świadczeń społecznych
d) Egzekwowanie prawa i wymiar sprawiedliwości
  • Sztuczna inteligencja do analizy dowodów i wsparcia śledztw
  • Systemy wspomagane sztuczną inteligencją do kontroli granic i zarządzania migracjami
e) Identyfikacja biometryczna
  • Systemy biometrycznej identyfikacji zdalnej
  • Systemy rozpoznawania emocji w środowiskach o krytycznym znaczeniu dla bezpieczeństwa

Wszystkie te obarczone wysokim ryzykiem zastosowania sztucznej inteligencji podlegają rygorystycznym wymaganiom dotyczącym zarządzania ryzykiem, przejrzystości, przetwarzania danych, dokumentacji technicznej i nadzoru ludzkiego.

Ustawa UE o sztucznej inteligencji: Jak firmy mogą przygotować się na surowe przepisy dotyczące sztucznej inteligencji

Unijna ustawa o sztucznej inteligencji (AI) ustanawia jasne ramy dla wykorzystania technologii AI i kładzie szczególny nacisk na ochronę praw podstawowych. Przedsiębiorstwa i organy publiczne muszą dokładnie zapoznać się z nowymi przepisami i odpowiednio dostosować swoje aplikacje AI, aby uniknąć sankcji. Szczególnie rygorystyczne wymogi dotyczą systemów wysokiego ryzyka, które powinny zostać włączone do procesów rozwoju i wdrażania na wczesnym etapie.

Ciągły monitoring przepisów i proaktywne działania w zakresie zgodności są niezbędne, aby zapewnić odpowiedzialne korzystanie ze sztucznej inteligencji (AI) przy jednoczesnym wspieraniu innowacji w ramach prawnych. Nadchodzące lata pokażą, jak ustawa o AI sprawdza się w praktyce i jakie dalsze zmiany mogą być konieczne.

Nadaje się do:

 

Twój globalny partner w zakresie marketingu i rozwoju biznesu

☑️Naszym językiem biznesowym jest angielski lub niemiecki

☑️ NOWOŚĆ: Korespondencja w Twoim języku narodowym!

 

Konrad Wolfenstein

Chętnie będę służyć Tobie i mojemu zespołowi jako osobisty doradca.

Możesz się ze mną skontaktować wypełniając formularz kontaktowy lub po prostu dzwoniąc pod numer +49 89 89 674 804 (Monachium) . Mój adres e-mail to: wolfenstein xpert.digital

Nie mogę się doczekać naszego wspólnego projektu.

 

 

☑️ Wsparcie MŚP w zakresie strategii, doradztwa, planowania i wdrażania

☑️ Stworzenie lub dostosowanie strategii cyfrowej i cyfryzacji

☑️Rozbudowa i optymalizacja procesów sprzedaży międzynarodowej

☑️ Globalne i cyfrowe platformy handlowe B2B

☑️ Pionierski rozwój biznesu / marketing / PR / targi

Wyjdź z wersji mobilnej