Майбутнє засідання Верховного суду, яке вирішуватиме не лише долю суперечливого Розділу 230 Закону про пристойність в комунікаціях, але й те, чи відповідають техногіганти за контент, який вони рекомендують, все активніше обговорюється серед юристів та представників BigTech.
Майбутнє рішення Верховного суду може покласти прецедент в іншому аспекті, а саме – у відповідальності соціальних платформ та техногігантів за роботу рекомендаційних алгоритмів. Адже саме алгоритми рекомендацій Twitter та YouTube є, по суті, предметом судових суперечок.
Найвища судова інстанція визначатиме, чи винні Twitter та YouTube у тому, що вони, по-перше, не видалили суперечливий контент, що стосується діяльності екстремістських організацій. А по-друге, в тому, що цей контент з’являвся в рекомендаціях? Адже саме в цьому автори позовів «Гонсалес проти Google» та «Таамні проти Twitter» звинувачують технологічні компанії.
Це обговорення набуло нового повороту після того, як техногіганти закликали не судити їх за алгоритми.
Насправді проблема регулювання роботи алгоритмів відбору контенту є дуже серйозною й такою, що не врегульована до сьогоднішнього дня, попри спроби окремих країн навести лад у цьому сегменті діяльності техногігантів.
Важливість регулювання алгоритмів можна оцінити, якщо пригадати колонку Джо Байдена, написану для Wall Street Journal.
Нагадаємо, що у своєму матеріалі президент Байден закликав сенаторів ухвалити закон, який притягне до відповідальності техногігантів та соціальні платформи через їх надмірну експлуатацію особистих даних користувачів і створення небезпеки для дітей. Глава держави також нагадав про важливість змін до Розділу 230 Закону про пристойність у комунікаціях.
Але попри це Байден зазначив, що проблемою для існування технологічного ринку є необхідність розуміння того, як функціонують алгоритми, які компанії використовують для відбору та фільтрації інформації для користувачів.
Цікавою відповіддю на ці спроби впорядкувати роботу алгоритмів відбору контенту стала заява Meta, Twitter, Microsoft. Ці техногіганти закликають Верховний суд не дозволяти позови проти їх алгоритмів.
Цікаво, що цю думку підтримали інші компанії, які не є фігурантами у двох резонансних справах. Причому деякі з них стверджували, що виключення механізмів рекомендацій, керованих штучним інтелектом, із федерального правового захисту призведе до кардинальних змін у відкритому інтернеті. Іншими словами, що алгоритми рекомендації контенту є надзвичайно важливими, і судові суперечки не повинні їх стосуватися, інакше це вплине на те, як інтернет працюватиме найближчим часом.
До Meta, Twitter, Microsoft доєдналися Yelp, Reddit і навіть Electronic Frontier Foundation. Група волонтерів-модераторів Reddit окремо підкреслила свою участь у обговоренні та додала, що Розділ 230 Закону про пристойність у комунікаціях є життєво важливим для сучасного інтернету і змінювати його зараз не на часі.
Нагадаємо, що Розділ 230 використовувався для того, щоб захистити будь-які веб-сайти, а не лише платформи соціальних мереж, від судових позовів щодо вмісту, який розміщують користувачі.
Проте справи «Гонсалес проти Google» та «Таамні проти Twitter» стосуються не стільки опублікованого контенту, скільки алгоритмів рекомендацій. До прикладу, в Google стверджують, що рекомендаційні алгоритми теж захищені Розділом 230. Натомість позивачі у справі, члени сім’ї людини, убитої під час атаки ІДІЛ у Парижі в 2015 році, стверджували, що алгоритм рекомендацій YouTube може бути притягнутий до відповідальності згідно із законом США про боротьбу з тероризмом.
У своїй заяві Reddit і модератори Reddit стверджували, що у випадку прецеденту прийняття рішення стосовно алгоритмів відбору контенту, нам слід чекати великої кількості майбутніх позовів проти навіть неалгоритмічних форм рекомендацій і потенційно проти окремих користувачів інтернету.
«Вся платформа Reddit побудована на тому, що користувачі «рекомендують» контент іншим, виконуючи такі дії, як голосування «за» та закріплення контенту», — йдеться в їх заяві. «Наслідки в цій справі можуть призвести до того, що звичайні інтернет-користувачі можуть бути притягнуті до суду за їх онлайн-взаємодії».
Yelp, давній антагоніст Google, стверджував, що його бізнес залежить від надання релевантних і нешахрайських відгуків своїм користувачам, і що постанова, яка передбачає відповідальність за алгоритми рекомендацій, може порушити основний бізнес Yelp, фактично змусивши його припинити курувати (відбирати) всі відгуки, навіть ті, які можуть бути маніпулятивними або фальшивими.
«Якби Yelp не міг аналізувати та рекомендувати відгуки, не зазнаючи відповідальності, ці витрати на подання шахрайських відгуків зникли б», — коментують представники Yelp . «Якби Yelp мав відображати кожен надісланий відгук... власники бізнесу могли б надіслати сотні позитивних відгуків про власний бізнес без зусиль або ризику отримати штраф».
Розділ 230 гарантує, що платформи можуть модерувати вміст, щоб представити користувачам найбільш релевантні дані з величезних обсягів інформації, які щодня додаються в Інтернет, захищаються представники Twitter: «Середньому користувачеві знадобиться приблизно 181 мільйон років, щоб завантажити всі дані з Інтернету сьогодні».
Якщо б Верховний суд запропонував нове тлумачення Розділу 230, який захищав би право платформ видаляти контент, але виключав захист права рекомендувати вміст, це призвело б до нових проблем. Адже відразу виникає питання, що означає рекомендувати щось онлайн – стверджує Мета: «Якщо просте відображення стороннього контенту в стрічці користувача кваліфікується як «рекомендація», тоді багато онлайн-сервісів зіткнуться з потенційною відповідальністю практично за весь сторонній контент, який вони розміщують. Оскільки майже всі рішення про те, як сортувати , вибирати, упорядковувати та відображати сторонній вміст може тлумачитися як «рекомендування» його рекомендація».
За даними Центру бізнесу та прав людини Стерна Нью-Йоркського університету, практично неможливо розробити правило, яке б виділило алгоритмічні рекомендації як значиму категорію відповідальності. «Веб-сайти використовують «цільові рекомендації», тому що ці рекомендації роблять їхні платформи зручними та корисними», — йдеться в заяві Нью-Йоркського університету. «Без гарантії захисту цих рекомендацій платформи будуть видаляти сторонній контент або нічого не робити, щоб він став доступним. У будь-якій із цих ситуацій свобода слова в онлайні зникне як явище — або тому, що її видалено, або тому, що вона прихована серед погано керованого інформаційного звалища», - коментують експерти.
Попри протести соціальних платформ, у світі поступово запроваджується практика регулювання алгоритмів рекомендацій. Такі правила існують, до прикладу, у Китаї. Відомо, що алгоритми рекомендацій, які використовують китайські компанії, не повинні використовувати будь-яку цінову дискримінацію, не мають впливати на національну безпеку, економічний та соціальний порядок в країні. А найголовніше – компанії повинні розкривати основні принципи їх роботи.
Нові правила регулювання цифрових ринків, які почали діяти у ЄС в листопаді минулого року, також містять вимоги розкриття алгоритмів рекомендацій. А ще раніше Єврокомісія запровадила «стандарт прозорості алгоритмічного ранжування», тобто вимогу розкривати алгоритми за запитом законотворців.
Спроби техногігантів захиститись від будь-якого регулювання їх алгоритмів зрозумілі. Адже саме алгоритми відбору та рекомендацій контенту є невід’ємною частиною інструментів монетизації соціальних платформ та пошукових сервісів. І розкриття того, як ці інструменти працюють, може негативно вплинути на заробіток техногігантів. То ж ближче до слухань «Гонсалес проти Google» та «Таамні проти Twitter» ми почуємо ще не одні контраргументи щодо того, чому необхідно захищати Розділ 230 та через що рекомендаційні алгоритми від будь-якої відповідальності.