Website -pictogram Xpert.Digital

Datasoevereiniteit, zelfbeschikking en de realiteit van AI-gestuurde platformmoderatie

Datasoevereiniteit, zelfbeschikking en de realiteit van AI-gestuurde platformmoderatie

Datasoevereiniteit, zelfbeschikking en de realiteit van AI-gestuurde platformmoderatie – Creatief beeld: Xpert.Digital

De Enderman-zaak: hoe een bizarre AI-fout laat zien hoe kwetsbaar we online daadwerkelijk zijn.

### Eén klik en alles weg: de stille chaos van AI-gestuurde platformmoderatie ### Het levenswerk vernietigd door AI: waarom uw account op sociale media morgen zomaar kan verdwijnen ### De grote illusie van datasoevereiniteit: hoe algoritmes in het geheim over ons heersen ### Ondanks nieuwe EU-wetten: waarom technologiebedrijven nog steeds willekeurig gegevens mogen verwijderen ###

Judge Algorithm: Wanneer een AI een einde maakt aan je digitale leven – en niemand is verantwoordelijk

We leven in een tijd waarin termen als "datasoevereiniteit" en "digitale zelfbeschikking" niet slechts politieke slogans zijn, maar de aspiraties van een hele samenleving vertegenwoordigen. Met wetten zoals de Digital Services Act probeert Europa een bolwerk te bouwen tegen de willekeur van wereldwijde techbedrijven en de fundamentele rechten van haar burgers in de digitale sfeer te beschermen. Maar terwijl we debatteren over juridische clausules en regelgeving, ontvouwt zich voor onze ogen een realiteit die deze verheven doelen belachelijk maakt. Een realiteit waarin het digitale bestaan ​​van mensen met één druk op de knop wordt vernietigd – niet door een mens, maar door een ondoorzichtig algoritme.

Dagelijks worden accounts opgeschort en kanalen verwijderd op platforms zoals YouTube, TikTok en Instagram – kanalen die gebruikers jarenlang moeizaam hebben opgebouwd. Hun digitale levenswerk verdwijnt, vaak zonder duidelijke rechtvaardiging, zonder een eerlijk proces en zonder een effectieve manier om tegen de beslissing in beroep te gaan. Dit komt steeds vaker door AI-gestuurde moderatie, die foutgevoelig en ondoorzichtig is, maar toch de ultieme macht bezit om zichtbaarheid en digitaal bestaan ​​te beoordelen. Het geval van tech-YouTuber Enderman, wiens kanalen met honderdduizenden abonnees werden verwijderd op basis van een absurde connectie die naar verluidt door AI werd gelegd, is slechts het topje van de ijsberg. Dit artikel onderzoekt de diepe kloof tussen onze behoefte aan controle en de ongecontroleerde macht van algoritmen, die allang rechters en beulen zijn geworden in onze digitale publieke sfeer.

Waar zit de tegenstelling tussen onze ambitie en onze realiteit?

We hebben het voortdurend over datasoevereiniteit en digitale zelfbeschikking. Deze termen zijn kenmerken geworden van een zelfverzekerde en onafhankelijke cultuur, een cultuur die de omgang met kunstmatige intelligentie moet uitstralen als een teken van volwassenheid. De Europese Unie heeft zich ten doel gesteld haar burgers te beschermen tegen de willekeurige acties van wereldwijde technologiebedrijven met wetten zoals de Digital Services Act en de Digital Markets Act. Er zijn regels ingevoerd om transparantie af te dwingen en fundamentele rechten te beschermen. Maar met al deze toenemende regelgeving zien we iets fundamenteels over het hoofd: we hebben de existentiële dreiging die zich dagelijks voor onze ogen ontvouwt en de geloofwaardigheid van al deze inspanningen ondermijnt, niet aangepakt.

De realiteit die de grote socialemediakanalen ons dagelijks voorschotelen, vertelt een heel ander verhaal dan die van datasoevereiniteit en zelfbeschikking. Mensen verliezen dagelijks hun digitale levenswerk, zonder rechtvaardiging of mechanismen om dit tegen te gaan. Kanalen die jarenlang moeizaam zijn opgebouwd, worden verwijderd. Niet na zorgvuldige beoordeling, niet na transparante processen, niet na de mogelijkheid van een eerlijk proces. Gewoon verwijderd. En dit gebeurt op een manier die een democratie onwaardig is, omdat er geen effectieve beroepsmogelijkheden zijn en de getroffenen niet eens weten waarom hun tijd en creativiteit zijn verspild.

Welke concrete voorbeelden illustreren deze willekeur?

Het meest recente en opvallende voorbeeld is de tech-YouTuber Enderman. De Russische contentmaker had een hoofdkanaal op YouTube opgezet met meer dan 350.000 abonnees, waar hij technologische onderwerpen onderzocht. Zijn content was waardevol vanuit documentaire oogpunt – hij behandelde oudere versies van Windows en andere technische problemen. Dit kanaal werd zonder waarschuwing verwijderd. Kort daarvoor was zijn secundaire kanaal, Andrew, eveneens met honderdduizenden abonnees, verdwenen. De opgegeven reden voor deze drastische maatregel was bizar: YouTube beweerde dat Endermans kanalen verbonden waren met een Japans kanaal dat zijn derde auteursrechtklacht had ontvangen. Een kanaal dat Enderman niet kent, in wiens taal hij niet communiceert en waarmee hij geen enkele connectie heeft.

Het opmerkelijke aan deze zaak is niet alleen de onrechtvaardigheid van de beslissing zelf, maar ook de manier waarop deze tot stand is gekomen. Enderman suggereerde dat er een AI-systeem achter zat, dat een gebrekkige verbinding tot stand had gebracht tussen zijn kanalen en een onbekend Japans account. De hoop van de tech-YouTuber dat een menselijke YouTube-medewerker zijn klacht zou beoordelen, werd de bodem ingeslagen. Maanden verstreken zonder reactie. Enderman lijkt zich er nu bij neer te leggen dat zijn tijd op YouTube voorbij is. Een andere YouTuber meldde identieke problemen in dezelfde Twitter-thread – ook zijn kanaal werd verwijderd met verwijzing naar hetzelfde Japanse kanaal. Dit wijst op een systematische fout, niet op een op zichzelf staand incident van menselijke fouten, maar eerder op de tekortkomingen van een geautomatiseerd systeem dat ongecontroleerd functioneert.

YouTube is geen op zichzelf staand geval. Verschillende platforms vertonen vergelijkbare patronen. TikTok, Instagram, Facebook en andere diensten verwijderen dagelijks content en schorsen accounts, vaak zonder voldoende rechtvaardiging. De transparantieorganisatie Freiheitsrechte.org heeft gedocumenteerd dat socialemediaplatforms vaak onvoldoende uitleg geven over hun moderatiebeslissingen aan de betrokkenen. In sommige gevallen verwijzen rechtvaardigingen slechts in het algemeen naar een schending van de servicevoorwaarden, zonder uit te leggen welke specifieke schending tot de actie heeft geleid.

Voldoen technologiebedrijven aan hun maatschappelijke verantwoordelijkheid?

Dit is het cruciale punt waarop we onze cognitieve vooroordelen moeten corrigeren. De grote techbedrijven profiteren aantoonbaar van onze data, onze economische activiteit en onze samenleving. Ze gebruiken ons gedeelde internet als hun zakelijke basis. Ze verdienen miljarden aan advertentie-inkomsten die gegenereerd worden door onze aandacht en onze persoonlijke gegevens. Tegelijkertijd nemen deze bedrijven feitelijk publieke en maatschappelijke verantwoordelijkheden op zich.

YouTube is niet zomaar een technische dienst, zoals een hostingprovider. Het platform is de infrastructuur van publieke communicatie geworden. Het bepaalt de zichtbaarheid, het bereik en de toegang voor miljoenen mensen. Het heeft zich gevestigd als poortwachter van informatie en kennis. Facebook en Instagram zijn vergelijkbaar – deze diensten zijn centrale knooppunten geworden voor sociaal discours. Voor veel mensen zijn deze platforms de belangrijkste plek om hun stem te laten horen, hun community op te bouwen en hun boodschap te verspreiden.

Maar hoewel deze techbedrijven economisch profiteren van hun rol als intermediair in sociale communicatie, ontlopen ze de verantwoordelijkheden die bij deze rol horen. Een liefdadigheidsinstelling die door de overheid is ingehuurd om tegen betaling taken uit te voeren, kan niet zomaar afwijkende meningen uitsluiten omdat ze iemand niet mag. Een publieke omroep kan individuen niet zomaar het zwijgen opleggen zonder hun kant van het verhaal te hebben gehoord. Een rechtbank kan iemand niet zomaar veroordelen zonder die persoon de kans te geven zich te verdedigen.

Toch is dit precies wat er dagelijks op deze platforms gebeurt. Mensen worden zonder enige echte rechtvaardiging uitgesloten. Hun werk wordt verwijderd. Hun bestaansmiddelen worden online vernietigd. En de enige reactie van de platforms is een verwijzing naar hun servicevoorwaarden en, in het beste geval, een geautomatiseerd klachtensysteem dat nauwelijks problemen oplost. Dit is niet alleen onrechtvaardig, het is ook structureel gevaarlijk voor een open samenleving.

 

🤖🚀 Beheerd AI-platform: snellere, veiligere en slimmere AI-oplossingen met UNFRAME.AI

Beheerd AI-platform - Afbeelding: Xpert.Digital

Hier leert u hoe uw bedrijf snel, veilig en zonder hoge toetredingsdrempels maatwerk AI-oplossingen kan implementeren.

Een Managed AI Platform is uw complete, zorgeloze pakket voor kunstmatige intelligentie. In plaats van complexe technologie, dure infrastructuur en langdurige ontwikkelprocessen, ontvangt u van een gespecialiseerde partner een kant-en-klare oplossing op maat – vaak binnen enkele dagen.

De belangrijkste voordelen in één oogopslag:

⚡ Snelle implementatie: van idee tot operationele toepassing in dagen, niet maanden. Wij leveren praktische oplossingen die direct waarde creëren.

🔒 Maximale gegevensbeveiliging: uw gevoelige gegevens blijven bij u. Wij garanderen een veilige en conforme verwerking zonder gegevens met derden te delen.

💸 Geen financieel risico: u betaalt alleen voor resultaten. Hoge initiële investeringen in hardware, software of personeel vervallen volledig.

🎯 Focus op uw kernactiviteiten: concentreer u op waar u goed in bent. Wij verzorgen de volledige technische implementatie, exploitatie en het onderhoud van uw AI-oplossing.

📈 Toekomstbestendig & Schaalbaar: Uw AI groeit met u mee. Wij zorgen voor continue optimalisatie en schaalbaarheid en passen de modellen flexibel aan nieuwe eisen aan.

Meer hierover hier:

 

Geautomatiseerde moderatie als bedreiging voor fundamentele rechten: wanneer AI besluit tot verwijdering

Hoe verandert het gebruik van AI het probleem?

De situatie verslechtert dramatisch. Techbedrijven gebruiken steeds vaker geautomatiseerde systemen om content te modereren en beslissingen te nemen. Deze AI-systemen zijn niet transparant. Ze worden niet regelmatig gecontroleerd. En bovenal: ze maken ook fouten met enorme gevolgen. De Enderman-zaak is slechts één van de vele voorbeelden van hoe AI-gestuurde moderatie tot absurde of schadelijke resultaten leidt.

Dit werd vooral duidelijk tijdens de COVID-19-pandemie. Toen menselijke reviewers niet beschikbaar waren, schakelden socialemediaplatforms massaal over op geautomatiseerde systemen voor contentmoderatie. Het resultaat was een golf van slechte beslissingen. Video's die de richtlijnen niet schonden, werden verwijderd. Legitieme content verdween. Gebruikers raakten gefrustreerd omdat de platforms hun beloftes niet konden nakomen.

De beperkingen van AI-gebaseerde contentmoderatie zijn fundamenteel. Kunstmatige intelligentie functioneert alleen betrouwbaar als er voldoende trainingsgegevens beschikbaar zijn. Veel situaties zijn genuanceerd en laten zich niet gemakkelijk categoriseren. Een zin als "Ik heb vanavond pasta gegeten" had een dubbele betekenis op TikTok: letterlijk verwees het naar voedselconsumptie, maar in de context van een trend signaleerde het suïcidale gedachten. Het TikTok-algoritme begreep deze nuance niet en voedde de trend juist.

Bovendien is het foutenpercentage systematisch. Uit een onderzoek van de European Broadcasting Union bleek dat AI-chatbots in 45 procent van alle antwoorden op vragen over actuele gebeurtenissen minstens één significant probleem hadden, een probleem dat lezers op het verkeerde been kon zetten. In 81 procent van de resultaten werd een fout gevonden. Dit is geen uitzondering, maar de regel.

Toch worden deze zeer foutgevoelige en ondoorzichtige systemen gebruikt om te beslissen over het lot van het digitale leven van miljoenen mensen. Een video wordt verwijderd. Een kanaal wordt gedeactiveerd. Een bedrijf wordt van het platform verwijderd. En de beslissing werd genomen door een systeem dat gebruikers niet kunnen begrijpen, dat niet verantwoordelijk is en dat ongestraft verkeerde beslissingen mag nemen.

Waar ligt de verantwoordelijkheid van de staat?

De staat kijkt niet alleen de andere kant op. Sterker nog, de staat, die de macht heeft om deze situatie te corrigeren, bureaucratiseert en verzandt in kleine details. Er zijn regels – dat klopt. De Digital Services Act van de Europese Unie bepaalt dat platforms transparant moeten zijn. Gebruikers moeten het recht hebben om te klagen. Het bepaalt dat zeer grote platforms hun systemen en beslissingen openbaar moeten maken. Dit klinkt allemaal goed en juist op papier.

De handhaving van deze regels is echter gefragmenteerd. De Bundesnetzagentur in Duitsland heeft de rol van coördinator digitale diensten op zich genomen en is nu belast met de handhaving van deze regels. Maar beschikt deze instantie over voldoende middelen? Heeft zij voldoende macht? Kunnen individuele nationale autoriteiten daadwerkelijk optreden tegen wereldwijde techbedrijven die hun verantwoordelijkheden ontlopen door middel van advocaten en lobbyen?

Bovendien is er een dieperliggend probleem. De staat heeft te lang toegestaan ​​dat private bedrijven tegelijkertijd de rol van poortwachter, rechter en jury spelen. Deze bedrijven bepalen op hun platforms wat goed en fout is. Ze vellen vonnissen. Ze handhaven vonnissen. En ze hoeven aan niemand verantwoording af te leggen. Dit is niet alleen een gebrek in de regelgeving. Het is een fundamenteel gebrek aan democratie.

Lange tijd werd aangenomen dat markten zichzelf reguleren, dat platforms handelen uit reputatie en eigenbelang. Deze aanname is fundamenteel onjuist gebleken. De platforms optimaliseren voor engagement en advertentie-inkomsten, niet voor eerlijkheid. Ze gebruiken AI-systemen die goedkoper zijn dan menselijke moderatie, ook al zijn deze systemen foutgevoelig. En wanneer er een fout optreedt, kunnen ze de schuld afschuiven op een algoritme dat zogenaamd een autonome beslissing heeft genomen.

Wat zou er nodig zijn om deze situatie te veranderen?

Ten eerste moet duidelijk worden gemaakt dat de grote platforms niet louter private bedrijven zijn waarover de staat geen zeggenschap heeft. Deze bedrijven vervullen publieke functies. Ze zijn intermediairs in het publieke debat. Ze hebben een maatschappelijke taak op zich genomen, weliswaar met economisch gewin, maar desalniettemin met maatschappelijke verantwoordelijkheid.

Dit betekent dat fundamentele beginselen van de rechtsstaat van toepassing moeten zijn op moderatiebesluiten, met name op drastische maatregelen zoals schorsing of verwijdering. Dit betekent volledige transparantie over de redenen voor een besluit. Dit betekent recht op een eerlijk proces voordat drastische maatregelen worden genomen. Dit betekent een daadwerkelijk recht op beroep, geen geautomatiseerd klachtensysteem dat in de praktijk ineffectief is. Dit betekent menselijke beoordeling, met name in gevallen waarbij een algoritme betrokken is.

Bovendien moeten er grenzen zijn aan AI-gestuurde moderatie. Als een systeem feilbaar is en miljoenen mensen kan beïnvloeden, moet er altijd een mens bij betrokken zijn. EU-regelgeving wijst in die richting, maar de handhaving ervan schiet tekort. Platforms vinden voortdurend manieren om deze regels te omzeilen of te ondermijnen.

Een structurele verandering in de verantwoordingsplicht is ook nodig. Platforms moeten aansprakelijk worden gesteld voor de beslissingen van hun systemen. Niet figuurlijk, maar juridisch. Als een kanaal ten onrechte wordt verwijderd, zou het platform verplicht moeten zijn om schadevergoeding te betalen. Dit zou de prikkels veranderen. Plotseling zou het niet langer goedkoper zijn om een ​​gebrekkig geautomatiseerd systeem te gebruiken. Plotseling zou er een prijskaartje hangen aan het onterecht schaden van mensen.

Voor Enderman zou dit betekenen dat YouTube zijn kanaal niet zomaar kon verwijderen omdat een AI-systeem een ​​foutieve verbinding met een Japans account had gemaakt. Er had een beoordeling moeten plaatsvinden. Er had een mogelijkheid moeten zijn om te reageren. En als de fout onopgemerkt bleef, had YouTube aansprakelijk kunnen worden gesteld.

Wat gebeurt er als deze problemen niet worden opgelost?

Het antwoord is vernietigend. Als we AI-systemen willekeurig laten beslissen over het digitale bestaan ​​van mensen, dan zal er geen chaos ontstaan ​​met AI – chaos is er al. Het zal alleen maar toenemen. Want hoe intelligenter deze systemen worden, hoe minder we ze begrijpen. En hoe minder we ze begrijpen, hoe minder we ze kunnen controleren.

Erger nog: het probleem zal exponentieel groeien. Het gebruik van AI bij contentmoderatie zal toenemen. De systemen zullen complexer worden. Foutpercentages kunnen afnemen of toenemen – niemand weet het zeker. Maar wat wel zeker is, is dat miljoenen, en binnenkort miljarden, mensen getroffen zullen worden door beslissingen die ze niet begrijpen, niet kunnen aanvechten en waarvoor geen verantwoording hoeft te worden afgelegd.

En terwijl dit gebeurt, kijkt de overheid de andere kant op. De Bundesnetzagentur schetst haar verantwoordelijkheden. De EU vaardigt wetten uit. Maar de handhaving is halfslachtig. De autoriteiten hebben te weinig middelen. De platforms betalen boetes die voor hen slechts een schijntje zijn en veranderen hun werkwijze niet echt. De status quo blijft bestaan: techbedrijven fungeren als ongecontroleerde heersers van de digitale publieke sfeer.

Het opmerkelijke aan deze situatie is dat ze vermijdbaar is. Er bestaan ​​oplossingen. Er zijn manieren om datasoevereiniteit en digitale zelfbeschikking te realiseren, niet alleen normatieve doelen. Maar om dat te bereiken, zou de staat zijn onverschilligheid moeten laten varen. Hij zou moeten erkennen dat dit niet alleen een kwestie van regelgeving is, maar een machtsongelijkheid. Techbedrijven hebben macht. Ze moeten die macht inzetten ten behoeve van de maatschappij, anders wordt die hun ontnomen.

Tot die tijd blijven zaken zoals die van Enderman symptomatisch voor een systeem dat niet werkt. Een man verliest zijn levenswerk. Niemand kan hem helpen. En de machine die zijn levenswerk vernietigde, blijft ongestoord doordraaien, nieuwe zaken beoordelen, nieuwe oordelen vellen, en de staat documenteert het allemaal in administratieve dossiers terwijl de rook opstijgt.

 

Advies - Planning - Implementatie

Konrad Wolfenstein

Ik help u graag als een persoonlijk consultant.

contact met mij opnemen onder Wolfenstein Xpert.Digital

Noem me gewoon onder +49 89 674 804 (München)

LinkedIn
 

 

 

Download het Enterprise AI Trends Report 2025 van Unframe

Download het Enterprise AI Trends Report 2025 van Unframe

Klik hier om te downloaden:

Verlaat de mobiele versie