Піктограма веб -сайту Xpert.digital

Суверенітет даних, самовизначення та реальність модерації платформ на основі штучного інтелекту

Суверенітет даних, самовизначення та реальність модерації платформ на основі штучного інтелекту

Суверенітет даних, самовизначення та реальність модерації платформ на основі штучного інтелекту – Креативне зображення: Xpert.Digital

Справа Ендермана: як дивна помилка штучного інтелекту показує, наскільки ми насправді вразливі в Інтернеті.

### Один клік, і все зникло: тихий хаос модерації платформ на основі штучного інтелекту ### Штучний інтелект знищив життєву працю: чому ваш обліковий запис у соціальних мережах може просто зникнути завтра ### Велика ілюзія суверенітету даних: як алгоритми таємно правлять над нами ### Незважаючи на нові закони ЄС: чому технологічним компаніям все ще дозволено довільно видаляти ###

Алгоритм судді: Коли штучний інтелект закінчує ваше цифрове життя – і ніхто за це не відповідає

Ми живемо в час, коли такі терміни, як «суверенітет даних» та «цифрове самовизначення», є не просто політичними гаслами, а відображають прагнення цілого суспільства. За допомогою таких законів, як Закон про цифрові послуги, Європа намагається побудувати бастіон проти свавільних дій глобальних технологічних компаній та захистити основні права своїх громадян у цифровій сфері. Але поки ми обговорюємо правові положення та нормативні акти, прямо перед нашими очима розгортається реальність, яка висміює ці високі цілі. Реальність, у якій цифрове існування людей руйнується одним натисканням кнопки – не людиною, а непрозорим алгоритмом.

Щодня облікові записи блокуються, а канали видаляються на таких платформах, як YouTube, TikTok та Instagram — каналах, які користувачі ретельно створювали роками. Їхня робота в цифровому житті зникає, часто без чіткого обґрунтування, без справедливого слухання та без ефективного способу оскарження рішення. Все частіше це відбувається через модерацію на основі штучного інтелекту, яка схильна до помилок, непрозора, але водночас має абсолютну силу оцінювати видимість та цифрове існування. Випадок ютубера Ендермана, чиї канали з сотнями тисяч підписників були видалені через абсурдний зв’язок, нібито встановлений штучним інтелектом, — це лише верхівка айсберга. У цій статті досліджується глибока прірва між нашим прагненням до контролю та неконтрольованою силою алгоритмів, які вже давно стали суддями та катами в нашій цифровій публічній сфері.

Де суперечність між нашими прагненнями та нашою реальністю?

Ми постійно говоримо про суверенітет даних та цифрове самовизначення. Ці терміни стали ознаками впевненої в собі та незалежної культури, яка має зобразити її ставлення до штучного інтелекту як ознаку її зрілості. Європейський Союз прагне захистити своїх громадян від свавільних дій глобальних технологічних корпорацій за допомогою таких законів, як Закон про цифрові послуги та Закон про цифрові ринки. Були прийняті нормативні акти для забезпечення прозорості та захисту основних прав. Але з усім цим нарощуванням нормативних актів ми не помічаємо чогось фундаментального: ми не звернули уваги на екзистенційну загрозу, яка щодня розгортається перед нашими очима та підриває довіру до всіх цих зусиль.

Реальність, яку щодня нам показують основні канали соціальних мереж, розповідає зовсім іншу історію, ніж історія суверенітету даних та самовизначення. Люди щодня втрачають свою роботу цифрового життя без жодних виправдань чи механізмів протидії цьому. Канали, які кропітко створювалися роками, видаляються. Не після ретельного розгляду, не після прозорих процесів, не після можливості справедливого розгляду. Просто видаляються. І це відбувається у спосіб, негідний демократії, оскільки немає ефективних механізмів оскарження, а постраждалі навіть не знають, чому їхній час та креативність були витрачені даремно.

Які конкретні приклади демонструють цю свавілля?

Найновішим і найяскравішим прикладом є випадок ютубера Ендермана, який спеціалізується на техно-технологіях. Російський творець контенту створив основний канал на YouTube з понад 350 000 підписників, де він досліджував технологічні теми. Його контент був цінним з документальної точки зору – він стосувався старіших версій Windows та інших технічних проблем. Цей канал було видалено без попередження. Незадовго до цього зник його другий канал, Andrew, також із сотнями тисяч підписників. Заявлена ​​причина такого радикального заходу була дивною: YouTube стверджував, що канали Ендермана були пов'язані з японським каналом, який отримав третє попередження про порушення авторських прав. Каналом, якого Ендерман не знає, мовою якого він не спілкується і з яким він не має жодного зв'язку.

Примітною в цій справі є не лише несправедливість самого рішення, а й спосіб його прийняття. Ендерман припустив, що за ним стоїть система штучного інтелекту, яка встановила несправне з'єднання між його каналами та невідомим японським обліковим записом. Надія ютубера-технолога на те, що співробітник YouTube розгляне його скаргу, не виправдалася. Минали місяці без відповіді. Здається, що Ендерман змирився з тим фактом, що його час на YouTube закінчився. Інший ютубер повідомив про ідентичні проблеми в тому ж потоці Twitter – його канал також було видалено з посиланням на той самий японський канал. Це вказує на системний збій, а не на поодинокий випадок людської помилки, а радше на недоліки автоматизованої системи, яка працює безконтрольно.

YouTube — не поодинокий випадок. Різні платформи демонструють схожі закономірності. TikTok, Instagram, Facebook та інші сервіси щодня видаляють контент і блокують облікові записи, часто без достатніх обґрунтувань. Організація прозорості Freiheitsrechte.org задокументувала, що платформи соціальних мереж часто надають неадекватні пояснення своїх рішень щодо модерації постраждалим. У деяких випадках обґрунтування лише загалом стосуються порушення умов обслуговування, не пояснюючи, яке саме порушення призвело до дії.

Чи виконують технологічні компанії свою соціальну відповідальність?

Це вирішальний момент, коли нам потрібно виправити наші когнітивні упередження. Великі технологічні компанії демонстративно отримують прибуток від наших даних, нашої економічної діяльності та нашого суспільства. Вони використовують наш спільний інтернет як основу свого бізнесу. Вони заробляють мільярди на рекламних доходах, що генеруються нашою увагою та нашими персональними даними. Водночас ці корпорації де-факто беруть на себе державну та суспільну відповідальність.

YouTube — це не просто технічний сервіс, як-от хостинг-провайдер. Платформа стала інфраструктурою публічної комунікації. Вона визначає видимість, охоплення та доступ для мільйонів людей. Вона закріпилася на позиції охоронця інформації та знань. Facebook та Instagram схожі — ці сервіси стали центральними центрами соціального дискурсу. Для багатьох людей ці платформи є основним місцем, де вони можуть висловлюватися, будувати свої спільноти та поширювати свої повідомлення.

Але хоча ці технологічні компанії отримують економічний прибуток від своєї ролі посередників у соціальній комунікації, вони уникають відповідальності, пов'язаної з цією роллю. Благодійна організація, якій держава доручила виконувати завдання за певну плату, не може просто виключати незгодні голоси лише тому, що їй хтось не подобається. Суспільний мовник не може просто змусити людей замовкнути, не почувши їхньої версії історії. Суд не може просто засудити когось, не надавши йому можливості захистити себе.

Однак саме це відбувається на цих платформах щодня. Людей виключають без жодних реальних підстав. Їхню роботу видаляють. Їхні засоби до існування знищуються в Інтернеті. А єдиною відповіддю платформ є посилання на їхні умови надання послуг і, в кращому випадку, автоматизована система скарг, яка майже не вирішує жодних проблем. Це не лише несправедливо; це структурно небезпечно для відкритого суспільства.

 

🤖🚀 Керована платформа штучного інтелекту: Швидші, безпечніші та розумніші рішення на основі штучного інтелекту з UNFRAME.AI

Керована платформа штучного інтелекту - Зображення: Xpert.Digital

Тут ви дізнаєтеся, як ваша компанія може швидко, безпечно та без високих бар'єрів входу впроваджувати індивідуальні рішення на основі штучного інтелекту.

Керована платформа штучного інтелекту — це ваш універсальний та безтурботний пакет для штучного інтелекту. Замість того, щоб мати справу зі складними технологіями, дорогою інфраструктурою та тривалими процесами розробки, ви отримуєте готове рішення, адаптоване до ваших потреб, від спеціалізованого партнера — часто протягом кількох днів.

Основні переваги з першого погляду:

⚡ Швидке впровадження: від ідеї до операційного застосування за лічені дні, а не місяці. Ми пропонуємо практичні рішення, які створюють негайну цінність.

🔒 Максимальна безпека даних: Ваші конфіденційні дані залишаються з вами. Ми гарантуємо безпечну та відповідність вимогам обробку без передачі даних третім особам.

💸 Без фінансових ризиків: Ви платите лише за результат. Повністю виключаються значні початкові інвестиції в обладнання, програмне забезпечення чи персонал.

🎯 Зосередьтеся на своєму основному бізнесі: Зосередьтеся на тому, що ви робите найкраще. Ми беремо на себе повне технічне впровадження, експлуатацію та обслуговування вашого рішення на основі штучного інтелекту.

📈 Орієнтований на майбутнє та масштабований: Ваш ШІ зростає разом з вами. Ми забезпечуємо постійну оптимізацію та масштабованість, а також гнучко адаптуємо моделі до нових вимог.

Детальніше про це тут:

 

Автоматизована модерація як загроза фундаментальним правам: коли ШІ вирішує видалити

Як використання штучного інтелекту змінює проблему?

Тут ситуація різко погіршується. Технологічні компанії все частіше використовують автоматизовані системи для модерації контенту та прийняття рішень. Ці системи штучного інтелекту непрозорі. Вони не перевіряються регулярно. І понад усе: вони також роблять помилки з величезними наслідками. Справа Ендермана — лише один із багатьох прикладів того, як модерація за допомогою штучного інтелекту призводить до абсурдних або шкідливих результатів.

Це стало особливо очевидним під час пандемії COVID-19. Коли люди-рецензенти були недоступні, платформи соціальних мереж масово перенесли модерацію контенту на автоматизовані системи. Результатом стала хвиля поганих рішень. Відео, які не порушували правил, видалялися. Законний контент зникав. Користувачі розчарувалися, оскільки платформи не могли виконати свої обіцянки.

Обмеження модерації контенту на основі штучного інтелекту є фундаментальними. Штучний інтелект надійно функціонує лише за наявності достатньої кількості навчальних даних. Багато ситуацій мають нюанси та не можуть бути легко класифіковані. Фраза на кшталт «Я їв пасту сьогодні ввечері» мала подвійне значення в TikTok — буквально вона стосувалася споживання їжі, але в контексті тренду сигналізувала про суїцидальні думки. Алгоритм TikTok не зміг вловити цей нюанс і натомість підживлював тренд.

Крім того, рівень помилок є систематичним. Дослідження Європейського мовного союзу показало, що чат-боти зі штучним інтелектом мали принаймні одну суттєву проблему у 45 відсотках усіх відповідей на запитання про поточні події, що може ввести читачів в оману. У 81 відсотку результатів було виявлено якусь помилку. Це не виняток; це правило.

Однак ці дуже схильні до помилок та непрозорі системи використовуються для вирішення долі цифрових життів мільйонів людей. Відео видаляють. Канал деактивують. Компанію видаляють з платформи. І рішення було прийнято системою, яку користувачі не можуть зрозуміти, яка не несе відповідальності та якій дозволено безкарно приймати неправильні рішення.

Де лежить відповідальність держави?

Держава не просто заплющує на це очі. Гірше того, держава, яка має владу виправити цю ситуацію, натомість бюрократизує та загрузає в дрібних деталях. Існують правила – це правда. Закон Європейського Союзу про цифрові послуги передбачає, що платформи повинні бути прозорими. Він вимагає від користувачів права подавати скарги. Він передбачає, що дуже великі платформи повинні розкривати свої системи та рішення. Все це звучить добре та правильно на папері.

Однак, забезпечення дотримання цих правил є фрагментарним. Федеральне мережеве агентство Німеччини взяло на себе роль координатора цифрових послуг і тепер має завдання забезпечити дотримання цих правил. Але чи має це агентство достатньо ресурсів? Чи має воно достатньо повноважень? Чи можуть окремі національні органи влади справді вживати заходів проти глобальних технологічних компаній, які ухиляються від своїх обов'язків за допомогою юристів та лобіювання?

Крім того, існує глибша проблема. Занадто довго держава дозволяла приватним корпораціям одночасно грати ролі вартових, судді та присяжних. Ці корпорації вирішують, що правильно, а що неправильно, на своїх платформах. Вони виносять вироки. Вони виконують вироки. І вони нікому не підзвітні. Це не просто регуляторний недолік. Це фундаментальний провал демократії.

Довгий час вважалося, що ринки регулюють себе самі, що платформи діятимуть, керуючись репутацією та власними інтересами. Це припущення виявилося фундаментально хибним. Платформи оптимізують роботу з метою залучення та доходів від реклами, а не для справедливості. Вони використовують системи штучного інтелекту, які дешевші за людську модерацію, хоча ці системи схильні до помилок. А коли трапляється помилка, вони можуть перекласти провину на алгоритм, який нібито прийняв автономне рішення.

Що було б потрібно, щоб змінити цю ситуацію?

По-перше, слід уточнити, що основні платформи – це не просто приватні компанії, над якими держава не має права голосу. Ці компанії виконують публічні функції. Вони є посередниками публічного дискурсу. Вони взяли на себе суспільне завдання, безумовно, з економічним прибутком, але тим не менш із соціальною відповідальністю.

Це означає, що основоположні принципи верховенства права повинні застосовуватися до рішень щодо модерації, особливо до радикальних заходів, таких як призупинення або видалення. Це означає повну прозорість щодо причин рішення. Це означає право на справедливий розгляд до вжиття радикальних заходів. Це означає справжнє право на апеляцію, а не автоматизовану систему подання скарг, яка на практиці неефективна. Це означає перевірку людиною, особливо у випадках, що стосуються алгоритму.

Крім того, мають бути обмеження для модерації за допомогою штучного інтелекту. Якщо система є помилковою та може вплинути на мільйони людей, людина завжди має бути залучена. Нормативи ЄС вказують на це, але їх дотримання недостатньо. Платформи постійно знаходять способи обійти або підірвати ці правила.

Також потрібна структурна зміна у підзвітності. Платформи мають нести відповідальність за рішення своїх систем. Не метафоричну відповідальність, а юридичну. Якщо канал незаконно видалено, платформа має бути зобов'язана відшкодувати збитки. Це змінить стимули. Раптом використання несправної автоматизованої системи перестане бути дешевшим. Раптом з'явиться ціна за несправедливе завдання шкоди людям.

Для Ендермана це означало б, що YouTube не міг просто видалити його канал через те, що система штучного інтелекту встановила помилкове підключення до японського облікового запису. Мав бути проведений розгляд. Мав бути наданий можливість відреагувати. А якби помилка залишилася непоміченою, YouTube міг би бути притягнутий до відповідальності.

Що станеться, якщо ці проблеми не будуть вирішені?

Відповідь руйнівна. Якщо ми дозволимо системам штучного інтелекту довільно вирішувати питання цифрового існування людей, то хаос не прийде разом зі штучним інтелектом — хаос уже тут. Він лише посилиться. Тому що чим розумнішими стають ці системи, тим менше ми їх розуміємо. А чим менше ми їх розуміємо, тим менше ми можемо їх контролювати.

Ще гірше: проблема зростатиме експоненціально. Використання штучного інтелекту в модерації контенту посилиться. Системи стануть складнішими. Рівень помилок може зменшуватися або збільшуватися — ніхто точно не знає. Але гарантовано те, що мільйони, а незабаром і мільярди людей постраждають від рішень, яких вони не розуміють, не можуть оскаржити і за які немає відповідальності.

І поки це відбувається, держава дивиться в інший бік. Федеральне мережеве агентство окреслює свої обов'язки. ЄС приймає закони. Але їх виконання є млявим. Органи влади не мають достатньо ресурсів. Платформи сплачують штрафи, які для них є лише дрібними грошима, і насправді не змінюють їхньої практики. Статус-кво зберігається: технологічні компанії діють як неконтрольовані правителі цифрової публічної сфери.

Що примітно в цій ситуації, так це те, що її можна уникнути. Рішення існують. Є способи зробити суверенітет даних та цифрове самовизначення реальністю, а не лише нормативними цілями. Але для цього держава повинна відмовитися від своєї байдужості. Вона повинна визнати, що це не просто регуляторне питання, а дисбаланс влади. Технологічні компанії мають владу. Вони повинні використати цю владу на благо суспільства, інакше її у них мають забрати.

До того часу, такі випадки, як у Ендермана, залишаються симптомом непрацюючої системи. Людина втрачає працю свого життя. Ніхто не може їй допомогти. А машина, яка знищила працю його життя, продовжує працювати безперешкодно, розглядаючи нові справи, виносячи нові рішення, а держава документує все це в адміністративних файлах, поки здіймається дим.

 

Поради - Планування - Реалізація

Konrad Wolfenstein

Я радий допомогти вам як особистого консультанта.

зв’язатися зі мною під Вольфенштейном xpert.digital

зателефонуйте мені під +49 89 674 804 (Мюнхен)

LinkedIn
 

 

 

Завантажте звіт Unframe про тенденції корпоративного штучного інтелекту за 2025 рік

Завантажте звіт Unframe про тенденції корпоративного штучного інтелекту за 2025 рік

Натисніть тут, щоб завантажити:

Залиште мобільну версію