Ikona webové stránky Xpert.Digital

Datová suverenita, sebeurčení a realita moderování platforem řízených umělou inteligencí

Datová suverenita, sebeurčení a realita moderování platforem řízených umělou inteligencí

Datová suverenita, sebeurčení a realita moderování platforem řízených umělou inteligencí – Kreativní obrázek: Xpert.Digital

Případ Enderman: Jak bizarní chyba umělé inteligence ukazuje, jak zranitelní jsme online.

### Jedno kliknutí a vše pryč: Tichý chaos moderování platforem řízených umělou inteligencí ### Životní dílo zničené umělou inteligencí: Proč by váš účet na sociálních sítích mohl zítra jednoduše zmizet ### Velká iluze datové suverenity: Jak nám algoritmy tajně vládnou ### Navzdory novým zákonům EU: Proč technologické společnosti stále mohou libovolně mazat ###

Soudní algoritmus: Když umělá inteligence ukončí váš digitální život – a nikdo za to nenese odpovědnost

Žijeme v době, kdy pojmy jako „datová suverenita“ a „digitální sebeurčení“ nejsou jen politickými slogany, ale představují aspirace celé společnosti. Prostřednictvím zákonů, jako je zákon o digitálních službách, se Evropa snaží vybudovat hradbu proti svévolnému jednání globálních technologických společností a chránit základní práva svých občanů v digitální sféře. Zatímco však diskutujeme o právních ustanoveních a předpisech, přímo před našima očima se odehrává realita, která se těmto vznešeným cílům vysmívá. Realita, v níž je digitální existence lidí zničena stisknutím tlačítka – ne člověkem, ale neprůhledným algoritmem.

Každý den jsou účty suspendovány a kanály mazány na platformách jako YouTube, TikTok a Instagram – kanálech, které si uživatelé pracně budovali po léta. Jejich digitální životní dílo mizí, často bez jasného odůvodnění, bez spravedlivého slyšení a bez účinného způsobu, jak se proti rozhodnutí odvolat. Stále častěji je to způsobeno moderováním řízeným umělou inteligencí, které je náchylné k chybám, neprůhledné, a přesto má konečnou moc posoudit viditelnost a digitální existenci. Případ technologického youtubera Endermana, jehož kanály se stovkami tisíc odběratelů byly smazány na základě absurdního spojení údajně navázaného umělou inteligencí, je jen špičkou ledovce. Tento článek zkoumá hlubokou propast mezi naší touhou po kontrole a nekontrolovanou mocí algoritmů, které se v naší digitální veřejné sféře již dávno staly soudci a katy.

Kde je rozpor mezi naší touhou a naší realitou?

Neustále mluvíme o datové suverenitě a digitálním sebeurčení. Tyto pojmy se staly charakteristickými znaky sebevědomé a nezávislé kultury, která má vykreslit její nakládání s umělou inteligencí jako známku její zralosti. Evropská unie se rozhodla chránit své občany před svévolným jednáním globálních technologických korporací pomocí zákonů, jako je zákon o digitálních službách a zákon o digitálních trzích. Byly přijaty předpisy k prosazování transparentnosti a ochraně základních práv. S veškerým tímto regulačním hromaděním však přehlížíme něco zásadního: neřešíme existenční hrozbu, která se denně odehrává před našima očima a podkopává důvěryhodnost veškerého tohoto úsilí.

Realita, kterou nám denně předkládají hlavní kanály sociálních médií, vypráví zcela jiný příběh než příběh o datové suverenitě a sebeurčení. Lidé denně přicházejí o práci svého digitálního života, bez ospravedlnění nebo jakýchkoli mechanismů, které by tomu mohly čelit. Kanály pracně budované po léta jsou mazány. Ne po pečlivém přezkoumání, ne po transparentních procesech, ne po možnosti spravedlivého slyšení. Prostě smazány. A to se děje způsobem nehodným demokracie, protože neexistují žádné účinné mechanismy pro odvolání a dotčení ani nevědí, proč byl jejich čas a kreativita promarněny.

Jaké konkrétní příklady demonstrují tuto svévoli?

Nejnovějším a nejvýraznějším příkladem je případ technologického YouTubera Endermana. Ruský tvůrce obsahu si vybudoval hlavní kanál na YouTube s více než 350 000 odběrateli, kde se věnoval technologickým tématům. Jeho obsah byl cenný i z dokumentárního hlediska – zabýval se staršími verzemi Windows a dalšími technickými problémy. Tento kanál byl bez varování smazán. Krátce předtím zmizel jeho sekundární kanál Andrew, rovněž se stovkami tisíc odběratelů. Uvedený důvod tohoto drastického opatření byl bizarní: YouTube tvrdil, že Endermanovy kanály byly propojeny s japonským kanálem, který dostal třetí porušení autorských práv. Kanál, který Enderman nezná, v jehož jazyce nekomunikuje a se kterým nemá žádné spojení.

Na tomto případu není pozoruhodná jen nespravedlnost samotného rozhodnutí, ale způsob, jakým bylo učiněno. Enderman naznačil, že za ním stojí systém umělé inteligence, který navázal chybné spojení mezi jeho kanály a neznámým japonským účtem. Naděje technologického youtubera, že jeho stížnost prošetří lidský zaměstnanec YouTube, se ztratila. Měsíce ubíhaly bez odezvy. Zdá se, že se Enderman nyní smířil s tím, že jeho čas na YouTube skončil. Jiný youtuber nahlásil ve stejném vlákně na Twitteru stejné problémy – i jeho kanál byl smazán s odkazem na stejný japonský kanál. To ukazuje na systémové selhání, nikoli na ojedinělý případ lidské chyby, ale spíše na nedostatky automatizovaného systému, který funguje nekontrolovaně.

YouTube není ojedinělý případ. Různé platformy vykazují podobné vzorce. TikTok, Instagram, Facebook a další služby denně mažou obsah a pozastavují účty, často bez dostatečného odůvodnění. Organizace pro transparentnost Freiheitsrechte.org zdokumentovala, že platformy sociálních médií často poskytují dotčeným osobám nedostatečná vysvětlení svých rozhodnutí o moderování. V některých případech se odůvodnění vztahují pouze obecně k porušení podmínek služby, aniž by vysvětlovali, které konkrétní porušení vedlo k danému kroku.

Plní technologické firmy svou společenskou odpovědnost?

Toto je klíčový bod, kde musíme napravit naše kognitivní zkreslení. Velké technologické společnosti prokazatelně profitují z našich dat, naší ekonomické aktivity a naší společnosti. Využívají náš sdílený internet jako základ svého podnikání. Vydělávají miliardy z reklamních příjmů generovaných naší pozorností a našimi osobními údaji. Zároveň tyto korporace de facto přebírají veřejnou a společenskou odpovědnost.

YouTube není jen technická služba, jako pouhý poskytovatel hostingu. Platforma se stala infrastrukturou veřejné komunikace. Určuje viditelnost, dosah a přístup pro miliony lidí. Zakořenila se v pozici strážce informací a znalostí. Facebook a Instagram jsou si podobné – tyto služby se staly ústředními body společenské diskuse. Pro mnoho lidí jsou tyto platformy primárním místem, kde mohou pozvednout svůj hlas, budovat své komunity a šířit svá sdělení.

Ačkoli tyto technologické společnosti ekonomicky profitují ze své role zprostředkovatelů sociální komunikace, vyhýbají se odpovědnostem, které s touto rolí souvisejí. Charitativní organizace pověřená státem plněním úkolů za úplatu nemůže jednoduše vyloučit disentní hlasy jen proto, že se jí někdo nelíbí. Veřejnoprávní vysílací společnost nemůže jednoduše umlčet jednotlivce, aniž by si vyslechla jejich verzi příběhu. Soud nemůže jednoduše někoho odsoudit, aniž by mu dal možnost se bránit.

Přesto se přesně tohle na těchto platformách děje každý den. Lidé jsou vylučováni bez jakéhokoli skutečného opodstatnění. Jejich práce je mazána. Jejich živobytí je online ničeno. A jedinou reakcí platforem je odkaz na jejich podmínky služby a v lepším případě automatizovaný systém pro podávání stížností, který sotva nějaké problémy vyřeší. To je nejen nespravedlivé, ale i strukturálně nebezpečné pro otevřenou společnost.

 

🤖🚀 Platforma spravované umělé inteligence: Rychlejší, bezpečnější a chytřejší řešení umělé inteligence s UNFRAME.AI

Platforma spravované umělé inteligence – obrázek: Xpert.Digital

Zde se dozvíte, jak může vaše společnost rychle, bezpečně a bez vysokých vstupních bariér implementovat řešení umělé inteligence na míru.

Spravovaná platforma umělé inteligence (AI) je vaším komplexním a bezstarostným balíčkem pro umělou inteligenci. Místo řešení složitých technologií, drahé infrastruktury a zdlouhavých vývojových procesů získáte od specializovaného partnera řešení na klíč šité na míru vašim potřebám – často během několika dnů.

Klíčové výhody na první pohled:

⚡ Rychlá implementace: Od nápadu k provozní aplikaci během dnů, nikoli měsíců. Dodáváme praktická řešení, která vytvářejí okamžitou hodnotu.

🔒 Maximální zabezpečení dat: Vaše citlivá data zůstávají u vás. Garantujeme bezpečné a kompatibilní zpracování bez sdílení dat s třetími stranami.

💸 Žádné finanční riziko: Platíte pouze za výsledky. Vysoké počáteční investice do hardwaru, softwaru nebo personálu jsou zcela eliminovány.

🎯 Zaměřte se na své hlavní podnikání: Soustřeďte se na to, co děláte nejlépe. My se postaráme o kompletní technickou implementaci, provoz a údržbu vašeho řešení s umělou inteligencí.

📈 Připraveno na budoucnost a škálovatelné: Vaše umělá inteligence roste s vámi. Zajišťujeme průběžnou optimalizaci a škálovatelnost a flexibilně přizpůsobujeme modely novým požadavkům.

Více o tom zde:

 

Automatická moderace jako hrozba pro základní práva: Když umělá inteligence rozhodne o smazání

Jak použití umělé inteligence mění problém?

Zde se situace dramaticky zhoršuje. Technologické společnosti stále častěji využívají automatizované systémy k moderování obsahu a rozhodování. Tyto systémy umělé inteligence nejsou transparentní. Nejsou pravidelně kontrolovány. A především: dělají také chyby s masivními následky. Případ Enderman je jen jedním z mnoha příkladů toho, jak moderování řízené umělou inteligencí vede k absurdním nebo škodlivým výsledkům.

To se stalo obzvláště patrným během pandemie COVID-19. Když nebyli k dispozici lidští recenzenti, platformy sociálních médií masivně přesunuly moderování obsahu na automatizované systémy. Výsledkem byla vlna špatných rozhodnutí. Videa, která neporušovala pravidla, byla smazána. Legitimní obsah mizel. Uživatelé byli frustrovaní, protože platformy nedokázaly dodržet své sliby.

Omezení moderování obsahu založeného na umělé inteligenci jsou zásadní. Umělá inteligence funguje spolehlivě pouze tehdy, je-li k dispozici dostatek trénovacích dat. Mnoho situací je specifických a nelze je snadno kategorizovat. Fráze jako „Dnes večer jsem měl těstoviny“ měla na TikToku dvojí význam – doslova se vztahovala ke konzumaci jídla, ale v kontextu trendu signalizovala sebevražedné myšlenky. Algoritmus TikToku tuto nuanci nepochopil a trend naopak podnítil.

Míra chyb je navíc systematická. Studie Evropské vysílací unie ukázala, že chatboti s umělou inteligencí měli alespoň jeden významný problém ve 45 procentech všech odpovědí na otázky týkající se aktuálního dění, což je problém, který by mohl čtenáře uvést v omyl. V 81 procentech výsledků byla nalezena nějaká chyba. To není výjimka, je to pravidlo.

Přesto se tyto velmi chybově náchylné a neprůhledné systémy používají k rozhodování o osudu digitálních životů milionů lidí. Video je smazáno. Kanál je deaktivován. Společnost je z platformy odstraněna. A rozhodnutí učinil systém, kterému uživatelé nerozumí, který není zodpovědný a kterému je dovoleno beztrestně činit chybná rozhodnutí.

Kde leží odpovědnost státu?

Stát nejenže přivírá oči. A co je ještě horší, stát, který má moc tuto situaci napravit, místo toho byrokratizuje a zabředává do drobných detailů. Existují pravidla – to je pravda. Zákon o digitálních službách Evropské unie stanoví, že platformy musí být transparentní. Vyžaduje, aby uživatelé měli právo podat stížnost. Stanoví, že velmi velké platformy musí zveřejňovat své systémy a svá rozhodnutí. To vše na papíře zní dobře a správně.

Vymáhání těchto pravidel je však roztříštěné. Federální síťová agentura v Německu převzala roli koordinátora digitálních služeb a nyní je pověřena vymáháním těchto pravidel. Má však tato agentura dostatečné zdroje? Má dostatek pravomocí? Mohou jednotlivé národní orgány skutečně zasáhnout proti globálním technologickým společnostem, které se svým povinnostem vyhýbají prostřednictvím právníků a lobbingu?

Navíc existuje hlubší problém. Stát příliš dlouho dovoloval soukromým korporacím, aby současně plnily roli strážce brány, soudce a poroty. Tyto korporace na svých platformách rozhodují o tom, co je správné a co špatné. Vynášejí rozsudky. Vymáhají tresty. A nejsou nikomu odpovědné. Nejde jen o regulační vadu. Je to zásadní selhání demokracie.

Dlouho se předpokládalo, že trhy se regulují samy, že platformy jednají na základě své reputace a vlastního zájmu. Tento předpoklad se ukázal jako zásadně mylný. Platformy optimalizují pro zapojení a příjmy z reklamy, nikoli pro spravedlnost. Provozují systémy umělé inteligence, které jsou levnější než lidské moderování, i když tyto systémy jsou náchylné k chybám. A když k chybě dojde, mohou vinu přesunout na algoritmus, který údajně učinil autonomní rozhodnutí.

Co by bylo potřeba k tomu, aby se tato situace změnila?

Zaprvé je třeba objasnit, že hlavní platformy nejsou jen soukromé společnosti, nad nimiž stát nemá žádný vliv. Tyto společnosti vykonávají veřejné funkce. Jsou zprostředkovateli veřejné diskuse. Převzaly společenský úkol, jistě s ekonomickým ziskem, ale nicméně se společenskou odpovědností.

To znamená, že na rozhodnutí o moderování, zejména na drastická opatření, jako jsou pozastavení nebo smazání, se musí vztahovat základní principy právního státu. To znamená plnou transparentnost ohledně důvodů rozhodnutí. To znamená právo na spravedlivý proces před přijetím drastických opatření. To znamená skutečné právo na odvolání, nikoli automatizovaný systém pro podávání stížností, který je v praxi neúčinný. To znamená lidskou kontrolu, zejména v případech zahrnujících algoritmus.

Dále je nutné stanovit limity pro moderování řízené umělou inteligencí. Pokud je systém omylný a může ovlivnit miliony lidí, musí být vždy zapojen člověk. Předpisy EU tímto směrem směřují, ale chybí jejich vymáhání. Platformy neustále nacházejí způsoby, jak tato pravidla obejít nebo podkopat.

Je také zapotřebí strukturální změna v odpovědnosti. Platformy musí nést odpovědnost za rozhodnutí svých systémů. Ne metaforicky, ale právně. Pokud je kanál neoprávněně smazán, měla by být platforma povinna uhradit škody. To by změnilo pobídky. Najednou by už nebylo levnější používat vadný automatizovaný systém. Najednou by existovala cena za nespravedlivé poškozování lidí.

Pro Endermana by to znamenalo, že YouTube nemohl jeho kanál jednoduše smazat jen proto, že systém umělé inteligence navázal chybné připojení k japonskému účtu. Mělo dojít k přezkoumání. Měla být možnost reagovat. A pokud by chyba zůstala nepovšimnuta, mohl být YouTube pohnán k odpovědnosti.

Co se stane, pokud se tyto problémy nevyřeší?

Odpověď je zničující. Pokud dovolíme systémům umělé inteligence, aby svévolně rozhodovaly o digitální existenci lidí, pak chaos s umělou inteligencí nepřijde – chaos už tady je. Bude se jen stupňovat. Protože čím inteligentnější se tyto systémy stanou, tím méně jim rozumíme. A čím méně jim rozumíme, tím méně je můžeme ovládat.

Ještě horší je, že problém bude exponenciálně růst. Využívání umělé inteligence při moderování obsahu se zintenzivní. Systémy se stanou složitějšími. Míra chyb se může snižovat nebo zvyšovat – nikdo to neví jistě. Je však zaručeno, že miliony a brzy i miliardy lidí budou ovlivněny rozhodnutími, kterým nerozumí, nemohou je zpochybnit a za která nenese žádnou odpovědnost.

A zatímco se to děje, stát se dívá jinam. Federální síťová agentura vymezuje své povinnosti. EU schvaluje zákony. Jejich vymáhání je však polovičaté. Úřady nemají dostatek zdrojů. Platformy platí pokuty, které jsou pro ně pouhými drobnými, a ve skutečnosti nemění jejich praktiky. Status quo přetrvává: technologické společnosti jednají jako nekontrolovaní vládci digitální veřejné sféry.

Na této situaci je pozoruhodné, že se jí lze vyhnout. Řešení existují. Existují způsoby, jak dosáhnout datové suverenity a digitálního sebeurčení, nejen normativních cílů. Aby se tak ale stalo, musel by stát opustit svou lhostejnost. Musel by si uvědomit, že se nejedná jen o regulační problém, ale o mocenskou nerovnováhu. Technologické společnosti mají moc. Musí tuto moc využít ve prospěch společnosti, jinak jim musí být odebrána.

Do té doby zůstávají případy jako Endermanův symptomem nefungujícího systému. Člověk přijde o své životní dílo. Nikdo mu nemůže pomoci. A stroj, který zničil jeho životní dílo, dál nerušeně běží, prověřuje nové případy, vynáší nová rozhodnutí a stát to vše dokumentuje ve správních spisech, zatímco se z toho kouří.

 

Poradenství - plánování - implementace

Konrad Wolfenstein

Rád posloužím jako váš osobní poradce.

kontaktovat pod Wolfenstein xpert.digital

Zavolejte mi pod +49 89 674 804 (Mnichov)

LinkedIn
 

 

 

Stáhněte si zprávu Unframe o trendech v podnikové umělé inteligenci za rok 2025

Stáhněte si zprávu Unframe o trendech v podnikové umělé inteligenci za rok 2025

Klikněte zde pro stažení:

Ukončete mobilní verzi