
Datensouveränität, Selbstbestimmung und die Realität der KI-gesteuerten Plattformmoderation – Kreativbild: Xpert.Digital
Der Fall Enderman: Wie ein bizarrer KI-Fehler zeigt, wie schutzlos wir im Netz wirklich sind
### Ein Klick, alles weg: Das stille Chaos der KI-gesteuerten Plattform-Moderation ### Lebenswerk von KI zerstört: Warum Ihr Social-Media-Konto morgen einfach weg sein könnte ### Die große Illusion der Datensouveränität: Wie Algorithmen heimlich über uns herrschen ### Trotz neuer EU-Gesetze: Warum Tech-Konzerne immer noch willkürlich löschen dürfen ###
Richter Algorithmus: Wenn eine KI Ihr digitales Leben beendet – und niemand zuständig ist
Wir leben in einer Zeit, in der Begriffe wie „Datensouveränität“ und „digitale Selbstbestimmung“ nicht nur politische Schlagworte sind, sondern den Anspruch einer ganzen Gesellschaft formulieren. Mit Gesetzen wie dem Digital Services Act versucht Europa, ein Bollwerk gegen die Willkür globaler Tech-Konzerne zu errichten und die Grundrechte seiner Bürger im digitalen Raum zu schützen. Doch während wir über Paragrafen und Regulierungen debattieren, spielt sich direkt vor unseren Augen eine Realität ab, die diesen hehren Zielen Hohn spricht. Eine Realität, in der die digitale Existenz von Menschen per Knopfdruck vernichtet wird – nicht von einem Menschen, sondern von einem undurchsichtigen Algorithmus.
Tagtäglich werden auf Plattformen wie YouTube, TikTok und Instagram Konten gesperrt und Kanäle gelöscht, die Nutzer über Jahre in mühevoller Arbeit aufgebaut haben. Ihr digitales Lebenswerk verschwindet, oft ohne klare Begründung, ohne faire Anhörung und ohne einen wirksamen Weg, sich gegen die Entscheidung zu wehren. Dahinter steckt immer häufiger eine KI-gesteuerte Moderation, die fehleranfällig, nicht nachvollziehbar und dennoch mit der ultimativen Macht ausgestattet ist, über Sichtbarkeit und digitale Existenzen zu urteilen. Der Fall des Tech-YouTubers Enderman, dessen Kanäle mit Hunderttausenden Abonnenten aufgrund einer absurden, mutmaßlich von einer KI hergestellten Verbindung gelöscht wurden, ist dabei nur die Spitze des Eisbergs. Dieser Artikel beleuchtet die tiefe Kluft zwischen unserem Wunsch nach Kontrolle und der unkontrollierten Macht von Algorithmen, die längst zu Richtern und Henkern in unserer digitalen Öffentlichkeit geworden sind.
Wo ist der Widerspruch zwischen unserem Anspruch und unserer Realität?
Wir sprechen ständig von Datensouveränität und digitaler Selbstbestimmung. Diese Begriffe sind zu Kennzeichen einer selbstbewussten und eigenständigen Kultur geworden, die den Umgang mit künstlicher Intelligenz als Merkmal ihrer Reife darstellen soll. Die Europäische Union hat sich mit Gesetzen wie dem Digital Services Act und dem Digital Markets Act aufgemacht, ihre Bürger vor den Willküren globaler Technologiekonzerne zu schützen. Regelwerke wurden erlassen, um Transparenz zu erzwingen und Grundrechte zu wahren. Doch bei all dieser normativen Hochrüstung übersehen wir etwas Fundamentales: Wir haben die existenzielle Bedrohung nicht gelöst, die täglich vor unseren Augen stattfindet und die Glaubwürdigkeit aller dieser Bestrebungen unterminiert.
Die Realität, die uns die großen Social-Media-Kanäle täglich vor Augen führen, erzählt eine ganz andere Geschichte als die von Datensouveränität und Selbstbestimmung. Menschen verlieren täglich ihre digitalen Lebenswerke, ohne dass dies gerechtfertigt wird oder dass Mechanismen existieren würden, um dagegen vorzugehen. Kanäle, die in mühsamer Kleinarbeit über Jahre aufgebaut wurden, werden gelöscht. Nicht nach sorgfältiger Prüfung, nicht nach transparenten Prozessen, nicht nach der Möglichkeit einer fairen Anhörung. Sondern einfach gelöscht. Und dies geschieht in einer Weise, die einer Demokratie unwürdig ist, weil es keine wirksamen Widerspruchsmechanismen gibt und die Betroffenen nicht einmal wissen, warum ihre Lebenszeit und Kreativität vernichtet wurde.
Welche konkreten Beispiele zeigen diese Willkür?
Das aktuellste und eindrucksvollste Beispiel ist der Fall des Tech-Youtubers Enderman. Der russische Content-Creator hatte auf YouTube einen Hauptkanal mit über 350.000 Abonnenten aufgebaut, auf dem er sich mit technologischen Themen auseinandersetzte. Seine Inhalte waren dokumentarisch wertvoll – er beschäftigte sich mit alten Windows-Versionen und anderen technischen Fragen. Dieser Kanal wurde ohne Vorwarnung gelöscht. Kurz zuvor war bereits sein Nebenkanal namens Andrew, ebenfalls mit Hunderttausenden Abonnenten, verschwunden. Die angegebene Begründung für diese drastische Massnahme war bizarr: YouTube behauptete, Endermans Kanäle würden mit einem japanischen Kanal verbunden sein, der den dritten Copyright-Strike erhalten habe. Ein Kanal, den Enderman nicht kennt, in dessen Sprache er nicht kommuniziert, und zu dem er keine Beziehung hat.
Das Besondere an diesem Fall ist nicht nur die Ungerechtigkeit der Entscheidung selbst, sondern die Art und Weise, wie sie getroffen wurde. Enderman äusserte die Vermutung, dass dahinter ein KI-System steckt, das eine fehlerhafte Verbindung zwischen seinen Kanälen und einem unbekannten japanischen Account hergestellt hat. Die Hoffnung des Tech-Youtubers, dass ein menschlicher Mitarbeiter von YouTube seine Beschwerde überprüfen könnte, erfüllte sich nicht. Monatelang blieb eine Antwort aus. Inzwischen scheint sich Enderman damit abgefunden zu haben, dass seine Zeit auf YouTube vorbei ist. Ein weiterer Youtuber berichtete unter dem selben Twitter-Thread von identischen Problemen – auch sein Kanal wurde mit Verweis auf denselben japanischen Channel gelöscht. Dies deutet auf ein systemisches Fehlverhalten hin, nicht auf einen Einzelfall menschlicher Willkür, sondern auf die Versäumnisse eines automatisierten Systems, das unkontrolliert agiert.
YouTube ist dabei kein Einzelfall. Verschiedene Plattformen haben ähnliche Muster gezeigt. TikTok, Instagram, Facebook und andere Dienste löschen täglich Inhalte und sperren Konten, oft ohne ausreichende Begründung. Die Transparenzorganisation Freiheitsrechte.org hat dokumentiert, dass Social-Media-Plattformen Moderationsentscheidungen gegenüber Betroffenen oftmals nur unzureichend begründen. Teilweise wird in Begründungen nur allgemein auf einen Verstoß gegen die Allgemeinen Geschäftsbedingungen verwiesen, ohne zu erklären, welcher spezifische Verstoß zu der Massnahme führte.
Werden Tech-Konzerne ihrer gesellschaftlichen Verantwortung gerecht?
Hier liegt der zentrale Punkt, an dem wir unsere kognitiven Verzerrungen korrigieren müssen. Die grossen Tech-Unternehmen profitieren nachweislich von unseren Daten, unserer wirtschaftlichen Aktivität und unserer Gesellschaft. Sie nutzen unser aller gemeinsames Internet als Geschäftsgrundlage. Sie verdienen Milliarden mit Werbeeinnahmen, die durch unsere Aufmerksamkeit und unsere persönlichen Daten generiert werden. Gleichzeitig übernehmen diese Konzerne de facto öffentliche, gesellschaftliche Aufgaben.
YouTube ist nicht einfach ein technischer Service wie ein reiner Hostprovider. Die Plattform ist zur Infrastruktur der öffentlichen Kommunikation geworden. Sie entscheidet über Sichtbarkeit, Reichweite und Zugang für Millionen von Menschen. Sie hat sich in die Positionen der Gatekeeper von Information und Wissen eingegraben. Facebook und Instagram ähnlich – diese Dienste sind zu zentralen Orten der gesellschaftlichen Diskurse geworden. Für viele Menschen sind diese Plattformen der primäre Ort, an dem sie ihre Stimme erheben können, ihre Gemeinschaften aufbauen, ihre Botschaften verbreiten.
Doch während diese Tech-Konzerne von ihren Rollen als Vermittler gesellschaftlicher Kommunikation wirtschaftlich profitieren, verweigern sie sich den Verpflichtungen, die dieser Rolle innewohnen sollten. Eine karitative Einrichtung, die vom Staat den Auftrag erhält, Aufgaben gegen Entgelt zu erfüllen, kann Andersdenkende nicht einfach ausschliessen, weil ihnen jemand nicht passt. Ein öffentlich-rechtlicher Rundfunksender kann Personen nicht einfach das Wort verbieten, ohne sie angehört zu haben. Ein Gericht kann nicht einfach eine Person verurteilen, ohne dass diese die Möglichkeit hatte, sich zu verteidigen.
Doch genau dies geschieht auf den Plattformen täglich. Menschen werden ohne echte Begründung ausgeschlossen. Ihre Arbeit wird gelöscht. Ihre Existenzen werden online zerstört. Und die einzige Antwort der Plattformen ist ein Hinweis auf ihre Nutzungsbedingungen und in besten Fällen ein automatisiertes Beschwerdesystem, das kaum irgendein Problem löst. Das ist nicht nur ungerecht. Es ist strukturell gefährlich für eine offene Gesellschaft.
🤖🚀 Managed-AI-Platform: Schneller, sicherer & smarter zur KI-Lösung mit UNFRAME.AI
Hier erfahren Sie, wie Ihr Unternehmen maßgeschneiderte KI-Lösungen schnell, sicher und ohne hohe Einstiegshürden realisieren kann.
Eine Managed AI Platform ist Ihr Rundum-Sorglos-Paket für künstliche Intelligenz. Anstatt sich mit komplexer Technik, teurer Infrastruktur und langwierigen Entwicklungsprozessen zu befassen, erhalten Sie von einem spezialisierten Partner eine fertige, auf Ihre Bedürfnisse zugeschnittene Lösung – oft innerhalb weniger Tage.
Die zentralen Vorteile auf einen Blick:
⚡ Schnelle Umsetzung: Von der Idee zur einsatzbereiten Anwendung in Tagen, nicht Monaten. Wir liefern praxisnahe Lösungen, die sofort Mehrwert schaffen.
🔒 Maximale Datensicherheit: Ihre sensiblen Daten bleiben bei Ihnen. Wir garantieren eine sichere und konforme Verarbeitung ohne Datenweitergabe an Dritte.
💸 Kein finanzielles Risiko: Sie zahlen nur für Ergebnisse. Hohe Vorabinvestitionen in Hardware, Software oder Personal entfallen komplett.
🎯 Fokus auf Ihr Kerngeschäft: Konzentrieren Sie sich auf das, was Sie am besten können. Wir übernehmen die gesamte technische Umsetzung, den Betrieb und die Wartung Ihrer KI-Lösung.
📈 Zukunftssicher & Skalierbar: Ihre KI wächst mit Ihnen. Wir sorgen für die laufende Optimierung, Skalierbarkeit und passen die Modelle flexibel an neue Anforderungen an.
Mehr dazu hier:
Automatisierte Moderation als Gefahr für Grundrechte: Wenn KI über Löschung entscheidet
Wie verändert sich das Problem durch den Einsatz von KI?
Hier wird die Situation dramatisch verschärft. Die Tech-Konzerne setzen zunehmend automatisierte Systeme ein, um Inhalte zu moderieren und Entscheidungen zu treffen. Diese KI-Systeme sind nicht transparent. Sie werden nicht regelmässig überprüft. Und vor allem: Sie machen auch Fehler mit massiven Konsequenzen. Der Fall Enderman ist nur eines von vielen Beispielen dafür, wie KI-gesteuerte Moderation zu absurden oder schädlichen Ergebnissen führt.
Während der COVID-19-Pandemie wurde dies besonders deutlich. Als menschliche Prüfer nicht verfügbar waren, verlagerten Social-Media-Plattformen ihre Inhaltsmoderation massiv auf automatisierte Systeme. Das Ergebnis war eine Welle von Fehlentscheidungen. Videos, die nicht gegen Richtlinien verstiessen, wurden gelöscht. Legitime Inhalte verschwanden. Die Nutzer wurden frustriert, weil die Plattformen ihre Versprechen nicht einhalten konnten.
Die Grenzen der KI-basierten Content-Moderation sind fundamentall. Künstliche Intelligenz funktioniert nur dann zuverlässig, wenn ausreichend Trainingsdaten zur Verfügung stehen. Viele Situationen sind nuanciert und können nicht in einfache Kategorien eingeteilt werden. Ein Satz wie I had pasta tonight hatte auf TikTok eine doppelte Bedeutung – wörtlich genommen referierte es auf Essenskonsum, im Kontext eines Trends aber signalisierte es Selbstmordgedanken. Der TikTok-Algorithmus konnte diese Nuance nicht erfassen und befeuerte stattdessen den Trend.
Hinzu kommt: Die Fehlerquote ist systematisch. Eine Studie der Europäischen Rundfunkunion zeigte, dass KI-Chatbots in 45 Prozent aller Antworten auf Fragen zu aktuellen Ereignissen mindestens ein signifikantes Problem aufwiesen, das die Leser in die Irre führen könnte. Bei 81 Prozent der Ergebnisse fanden sich überhaupt irgendwelche fehlerhaften Darstellungen. Das ist keine Ausnahmesituation. Das ist die Regel.
Doch genau diese fehleranfälligen und undurchsichtigen Systeme werden eingesetzt, um über die digitale Existenz von Millionen Menschen zu entscheiden. Ein Video wird gelöscht. Ein Kanal wird deaktiviert. Ein Unternehmen wird von der Plattform entfernt. Und die Entscheidung wurde von einem System getroffen, das die Nutzer nicht verstehen können, das nicht rechenschaftspflichtig ist, und das Fehlentscheidungen ohne Konsequenzen treffen darf.
Wo liegt die Verantwortung des Staates?
Der Staat schaut nicht einfach nur weg. Schlimmer noch: Der Staat, der die Macht hätte, diesen Zustand zu korrigieren, verwaltet und hält sich in detaillierten Kleinklein auf. Es gibt Regeln – das ist wahr. Der Digital Services Act der Europäischen Union schreibt vor, dass Plattformen transparent sein sollen. Er verlangt, dass Nutzer das Recht auf Beschwerde haben. Er sieht vor, dass sehr grosse Plattformen ihre Systeme und ihre Entscheidungen offenlegen müssen. All dies ist auf dem Papier gut und richtig.
Doch die Durchsetzung dieser Regeln ist fragmentiert. Die Bundesnetzagentur in Deutschland hat die Aufgabe des Digital Services Coordinator übernommen und soll nun diese Regeln durchsetzen. Aber hat diese Behörde genug Ressourcen? Hat sie genug Macht? Können einzelne nationale Behörden wirklich gegen globale Tech-Konzerne vorgehen, die sich ihrer Verantwortung mit Rechtsanwälten und Lobbying entziehen?
Darüber hinaus gibt es ein tieferes Problem. Der Staat hat lange Zeit zugelassen, dass private Konzerne die Rollen von Gatekeeper, Richter und Schöffe zugleich spielen. Diese Konzerne entscheiden, was Recht und Unrecht ist auf ihren Plattformen. Sie sprechen Urteile. Sie vollstrecken Strafen. Und sie brauchen dabei niemandem Rechenschaft ablegen. Das ist nicht nur regulatorisch ein Fehler. Es ist ein konzeptionelles Versagen der Demokratie.
Lange Zeit war die Annahme, dass die Märkte sich selbst regulieren, dass Plattformen aus Ruf und Eigeninteresse das Richtige tun würden. Diese Annahme hat sich als grundlegend falsch erwiesen. Die Plattformen optimieren für Engagement und Werbeumsätze, nicht für Gerechtigkeit. Sie lassen KI-Systeme laufen, die billiger sind als menschliche Moderation, auch wenn diese Systeme fehleranfällig sind. Und wenn ein Fehler passiert, können sie die Verantwortung auf ein Algorithmus schieben, der angeblich autonom entschieden hat.
Was wäre erforderlich, um diese Situation zu ändern?
Zunächst müsste klargestellt werden, dass die großen Plattformen nicht einfach private Unternehmen sind, denen der Staat nichts zu sagen hat. Diese Unternehmen üben öffentliche Funktionen aus. Sie sind Vermittler des öffentlichen Diskurses. Sie haben eine gesellschaftliche Aufgabe übernommen, zwar mit wirtschaftlichem Gewinn, aber trotzdem mit gesellschaftlicher Verantwortung verbunden.
Das bedeutet, dass bei Moderationsentscheidungen, besonders bei drastischen Massnahmen wie Sperrungen oder Löschungen, grundlegende rechtsstaatliche Prinzipien gelten müssen. Das bedeutet: volle Transparenz über die Gründe einer Entscheidung. Das bedeutet: das Recht auf eine faire Anhörung, bevor drastische Massnahmen getroffen werden. Das bedeutet: ein echtes Widerspruchsrecht, nicht ein automatisiertes Beschwerdesystem, das in der Praxis wirkungslos ist. Das bedeutet: menschliche Überprüfung, besonders bei Fällen, in denen ein Algorithmus involviert ist.
Darüber hinaus müsste es Grenzen für KI-gesteuerte Moderation geben. Wenn ein System fehlbar ist und Millionen von Menschen betreffen kann, muss immer ein Mensch beteiligt sein. Die EU-Verordnungen weisen in diese Richtung, aber die Durchsetzung ist mangelhaft. Die Plattformen finden ständig Wege, diese Regeln zu umgehen oder zu untergraben.
Es braucht auch eine strukturelle Änderung der Verantwortlichkeit. Die Plattformen müssen haftbar gemacht werden für Entscheidungen ihrer Systeme. Nicht metaphorisch haftbar, sondern rechtlich haftbar. Wenn ein Kanal zu Unrecht gelöscht wird, sollte die Plattform verpflichtet sein, Schadensersatz zu zahlen. Das würde die Anreize verändern. Plötzlich wäre es nicht mehr billiger, ein fehlerhaftes automatisiertes System einzusetzen. Plötzlich hätte es einen Preis, Menschen ungerechterweise zu schaden.
Für Enderman hätte das bedeutet, dass YouTube nicht einfach seinen Kanal löschen konnte, weil ein KI-System eine fehlerhafte Verbindung zu einem japanischen Account hergestellt hat. Es hätte Überprüfung geben müssen. Es hätte eine Chance zur Stellungnahme geben müssen. Und wenn der Fehler nicht bemerkt wird, hätte YouTube haftbar gemacht werden können.
Was droht, wenn diese Probleme nicht gelöst werden?
Die Antwort ist verheerend. Wenn wir es zulassen, dass KI-Systeme willkürlich über die digitale Existenz von Menschen entscheiden, dann wird das Chaos nicht mit der KI eintreten – das Chaos ist bereits hier. Es wird sich nur verschärfen. Denn je intelligenter diese Systeme werden, desto weniger verstehen wir sie. Und je weniger wir sie verstehen, desto weniger können wir sie kontrollieren.
Schlimmer noch: Das Problem wird sich exponentiell vergrössern. Der Einsatz von KI in der Content-Moderation wird sich intensivieren. Die Systeme werden komplexer. Die Fehlerquoten können sinken oder auch steigen – niemand weiss es genau. Aber was garantiert ist, ist dass Millionen und bald Milliarden von Menschen von Entscheidungen betroffen sein werden, die sie nicht verstehen, die sie nicht anfechten können, und für die es keine Verantwortung gibt.
Und während dies geschieht, schaut der Staat weg. Die Bundesnetzagentur beschreibt ihre Aufgaben. Die EU erlässt Gesetze. Aber die Durchsetzung ist halbherzig. Die Behörden sind unterausgestattet. Die Plattformen zahlen Bussgelder, die für sie wie Kleingeld sind, und ändern ihre Praktiken nicht wirklich. Der Status quo bleibt bestehen: Tech-Konzerne agieren als unkontrollierte Machthaber über die digitale Öffentlichkeit.
Das Besondere an dieser Situation ist, dass sie vermeidbar ist. Es gäbe Lösungen. Es gäbe Wege, Datensouveränität und digitale Selbstbestimmung echte Realität werden zu lassen, nicht nur normative Ziele. Aber dafür würde der Staat seine Achselzuckend-Haltung aufgeben müssen. Er müsste erkennen, dass dies nicht nur ein Regulierungsproblem ist, sondern ein Machtverhältnis. Tech-Konzerne haben Macht. Sie müssen diese Macht in den Dienst der Gesellschaft stellen, oder es muss ihnen diese Macht entzogen werden.
Bis dahin bleiben Fälle wie der von Enderman symptomatisch für ein System, das nicht funktioniert. Ein Mann verliert sein Lebenswerk. Niemand kann ihm helfen. Und die Maschine, die sein Lebenswerk zerstört hat, läuft ungestört weiter, prüft neue Fälle, trifft neue Urteile, und der Staat dokumentiert dies alles in Verwaltungsakten, während der Rauch aufsteigt.
Beratung - Planung - Umsetzung
Gerne stehe ich Ihnen als persönlicher Berater zur Verfügung.
Sie können mit mir unter wolfenstein∂xpert.digital Kontakt aufnehmen oder
mich einfach unter +49 89 89 674 804 (München) anrufen.
Enterprise AI Trends Report 2025 von Unframe zum Download
Hier geht es zum Download:

