Výběr hlasu 📢


Systémy AI, vysoce rizikové systémy a AI akt pro praxi ve společnostech a úřadech

Publikováno dne: 13. února 2025 / Aktualizace od: 13. února 2025 - Autor: Konrad Wolfenstein

AI systémy vysoce rizikové systémy a AI akt pro praxi ve společnostech a úřadech

Systémy AI Vysoce rizikové systémy a AI ACT pro praxi ve společnostech a úřadech-Image: Xpert.digital

Zákon EU Ki: Nové pokyny Komise EU-které společnosti musí vědět hned teď

Systémy AI, vysoce rizikové aplikace a AI ve společnostech a úřadech

Evropská komise zveřejnila rozsáhlé pokyny dne 11. února 2025 pro praktické provádění zákona EU KI (AI ACT). Účelem je podporovat společnosti a úřady, aby lépe porozuměly požadavkům zákona a jejich provádění v souladu s. Důraz je kladen zejména na zakázané postupy AI, vysoce rizikové systémy a opatření k dodržování předpisů.

Důležité aspekty pokynů

Zakázané praktiky AI

Zákon AI výslovně zakazuje některé aplikace AI, které jsou klasifikovány jako nepřijatelné riskantní. Tyto zákazy platí od 2. února 2025. Patří sem:

  • AI systémy, které používají manipulativní nebo klamné techniky
  • Systémy, které cíleně využívají zranitelnosti určitých lidí nebo skupin
  • Systémy sociálního hodnocení (sociální bodování)
  • AI předpovídat potenciální trestné činy bez jasných důkazů
  • Nekontrolované škrábání obrázků obličeje z internetu pro biometrickou identifikaci
  • Systémy pro detekci emocí v práci nebo ve vzdělávacích institucích
  • Biometrické identifikační systémy v reálném čase ve veřejných prostorách (s několika výjimkami pro orgány činné v trestním řízení)

Účelem těchto zákazů je zajistit, aby technologie AI byly používány eticky a odpovědně a neporušují základní práva.

Praktické použití pokynů

140stránkové pokyny Komise EU obsahují řadu praktických případových studií, které usnadní správnou klasifikaci jejich systémů AI. Ačkoli tyto pokyny nejsou právně závazné, slouží jako reference pro dozorčí orgány při sledování a prosazování předpisů.

Význam pro společnosti a úřady

Společnosti a úřady se musí aktivně vypořádat s pokyny, aby:

  1. Zkontrolovat vaše stávající systémy AI pro možné porušení
  2. Provést nezbytné úpravy v rané fázi
  3. Budování vnitřních struktur dodržování předpisů, aby se zabránilo trestům

Nedodržení předpisů může mít vážné důsledky. Sankce se pohybují až do 35 milionů EUR nebo 7% globálního ročního obratu společnosti v závislosti na tom, která částka je vyšší.

Další kroky

Než budou pokyny plně implementovány, musí být stále přeloženy do všech kancelářských jazyků EU a formálně přijaty. Společnosti a úřady by však měly aktivně přijmout opatření k přípravě na postupné zavedení zákona AI. Úplné uplatňování zákona je plánováno na 2. srpna 2026.

Kategorizace rizik systémů AI

Zákon EU AI dělí systémy AI do čtyř tříd rizik, z nichž každý má různé regulační požadavky:

1. Nepřijatelné systémy AI zakázané rizikem

Tyto systémy jsou v EU plně zakázány, protože představují významné nebezpečí pro práva a svobody občanů. Příklady jsou:

  • Systémy AI pro sociální hodnocení (sociální bodování)
  • Manipulativní AI, která nevědomě ovlivňuje chování uživatelů
  • Biometrická identifikace v reálném čase ve veřejných prostorách pro účely vymáhání práva (s několika výjimkami)
  • Systémy AI, které používají zranitelnosti kvůli věku, postižení nebo socioekonomickému stavu

2. Vysoké riziko - vyžadována přísná regulace

Tyto systémy musí splňovat přísné požadavky a projít testem shody, než přijdou na trh. Zahrnují:

  • AI jako bezpečnostní součást v kritických produktech, jako jsou zdravotnické prostředky, vozidla nebo stroje
  • Nezávislé systémy AI s dopady na základní práva (např. Kontrola úvěrů, screening žádosti, trestní stíhání, soudní správa)

Na tyto aplikace se vztahují rozsáhlé požadavky na transparentnost, řízení rizik, kvalitu dat a dohled nad lidmi.

3. Omezené riziko - závazky transparentnosti

Tyto systémy musí informovat uživatele, že interagují s AI. Příklady jsou:

  • Chatboti
  • Deeppakes používá k vytváření nebo manipulaci s mediálním obsahem

4. minimální nebo žádné riziko - volné použití

Tyto systémy nepodléhají zvláštním právním závazkům, ale doporučuje se dobrovolný kodex chování. Příklady jsou:

  • Videohry založené na AI
  • Spamový filtr

Vysoce rizikové systémy ACI a jejich regulace

Zákon AI definuje vysoce rizikové systémy ACI jako takové, které mají významný dopad na bezpečnost, zdraví nebo základní práva lidí. Ty lze rozdělit do dvou hlavních kategorií:

1.. AI jako bezpečnostní komponenta nebo nezávislý produkt

Systém AI je klasifikován jako vysoké riziko, pokud je to buď:

  • Působí jako bezpečnostní součást produktu, který spadá do předpisů o harmonizaci EU nebo
  • Posouzení shody podléhá potenciálním nebezpečím.

Příklady těchto produktů jsou:

  • AI ve zdravotnických prostředcích (např. Diagnostické systémy)
  • Systémy asistence založené na AI
  • AI v průmyslové výrobě pro hodnocení rizik a zajištění kvality

2. nezávislé vysoce rizikové systémy ACI se sociálním významem

Tyto systémy jsou uvedeny v příloze III zákona AI a týkají se kritických sociálních oblastí, jako jsou:

a) Kritické infrastruktury
  • AI pro kontrolu a sledování elektrických sítí nebo dopravních sítí
b) Vzdělávání a zaměstnanost
  • AI pro automatizované hodnocení zkoušek
  • AI pro výběr uchazečů nebo hodnocení výkonu zaměstnanců
c) Přístup k finančním a sociálním výhodám
  • Úvěrové testy podporované AI
  • Systémy pro hodnocení práva na žádost o sociální výhody
d) Donucovací orgán a soudnictví
  • AI pro analýzu důkazů a podporu vyšetřovací
  • Systémy založené na AI pro řízení hranic a správu migrace
e) Biometrická identifikace
  • Biometrické systémy pro dálkové identifikace
  • Systémy detekce emocí v bezpečnostních -kritických prostředích

Pro všechny tyto vysoce rizikové aplikace KI se platí přísné požadavky na řízení rizik, transparentnost, zpracování dat, technická dokumentace a monitorování člověka.

Zákon AI EU: Jak se společnosti mohou připravit na přísná předpisy AI

Zákon EU AI stanoví jasný rámec pro použití technologií AI a spojuje zvláštní význam ochraně základních práv. Společnosti a úřady se musí intenzivně zabývat novými předpisy a podle toho přizpůsobit své žádosti o AI, aby se zabránilo sankcím. Platí přísné požadavky, zejména pro vysoce rizikové systémy, které by měly být integrovány do vývojových a implementačních procesů v rané fázi.

Neustálé sledování právních předpisů a proaktivních opatření pro dodržování předpisů je nezbytné k tomu, aby bylo použití AI odpovědné a zároveň podporovalo inovace v právním rámci. V nadcházejících letech ukáže, jak se akt AI ukáže jako v praxi a které by mohly být nutné další úpravy.

Vhodné pro:

 

Váš globální partner pro marketing a rozvoj podnikání

☑️ Naším obchodním jazykem je angličtina nebo němčina

☑️ NOVINKA: Korespondence ve vašem národním jazyce!

 

Digitální průkopník - Konrad Wolfenstein

Konrad Wolfenstein

Rád vám a mému týmu posloužím jako osobní poradce.

Kontaktovat mě můžete vyplněním kontaktního formuláře nebo mi jednoduše zavolejte na číslo +49 89 89 674 804 (Mnichov) . Moje e-mailová adresa je: wolfenstein xpert.digital

Těším se na náš společný projekt.

 

 

☑️ Podpora MSP ve strategii, poradenství, plánování a implementaci

☑️ Vytvoření nebo přeladění digitální strategie a digitalizace

☑️ Rozšíření a optimalizace mezinárodních prodejních procesů

☑️ Globální a digitální obchodní platformy B2B

☑️ Pioneer Business Development / Marketing / PR / Veletrhy


Umělá inteligence (AI) -Ai blog, hotspot a obsah HubDigitální inteligenceXPaper