Штучний інтелект і права людини: чи може Термінатор стати ідеальним суддею
28 липня 2020
28.07.2020

Холодний розрахунок машини проти людських почуттів та емоцій — типовий сюжет фільму про робо-апокаліпсис. Але тоді, як у фільмі зазвичай перемагає людина, у реальному житті штучний інтелект все більше інтегровується у повсякдення. Він аналізує наші запити та видає бажані результати: впорядковані плейлисти, відфільтровані відео, зекономлений на доставку продуктів час. Такі технології використовують, наприклад, Apple та Google, їх хочуть ширше використовувати уряди різних країн для кращого виконання своїх функцій.

Співзасновник Access Now та правозахисник Камерон Ашраф переконаний: штучний інтелект ставить серйозні питання про захист прав людини, зокрема, про приватність, свободу слова та мирних зібрань. Відтак, сюжет цього фільму розвивається вже не на нашу користь. Чи можливо розширювати алгоритми і можливості машин та водночас не поступатися правами людини?

Електронні судді

Естонія сьогодні — флагман електронного врядування. Тут приділяють велику увагу всебічній діджиталізації усіх можливих сфер, зокрема й сфери послуг для громадян. Поруч з іншими тут уже діє система електронного судочинства (e-justice).

зображення з відкритих джерел

Її основа — інформаційна система e-file, запущена у 2005 році. Вона містить дані про різні стадії кримінальних, цивільних, адміністративних та дрібних правопорушень і надає їх усім сторонам. Один із базових принципів естонської системи — «тільки раз» , що значить, що така інформація збирається лише в одному місці і лише раз. Система також дозволяє судам надсилати громадянам різні документи і шифрувати їх вміст, роблячи його недоступним для третіх сторін.

Попри те, що система працює добре, кількість суддів в Естонії залишається сталою, у той час як кількість звернень суттєво збільшилася. Тож наступним кроком тут називають використання штучного інтелекту. Йдеться про створення так званих «суддів-роботів», які на основі вхідних документів та навчання на прецедентних кейсах виноситимуть рішення у справах.

Перше, що спадає на думку серед можливих недоліків системи, — захист даних. Втім під час свого виступу для Lviv Media Forum співзасновник Access Now та правозахисник Камерон Ашраф звертає увагу на не менш важливий аспект використання машин — людський фактор.

Штучний інтелект: самостійність чи залежність?

Камерон Ашраф називає два основні види штучного інтелекту: вузький (narrow) і загальний (general). Вузький — той, який непомітно проте міцно вбудувався у наше повсякдення через автоматизовані підбірки статей, музики і реклами. Або програми, які обігрують світових чемпіонів у грі в шахи чи ґо. Загальний штучний інтелект -поки що лише наукова фантастика, як-от Санні із фільму «Я — робот» — це системи, які намагаються бути людиною.

Вузький штучний інтелект працює на основі алгоритмів: кодів, які створює людина. По суті, це набори інструкцій, які кажуть ком’ютеру, як потрібно обробити дані.

Хоча Ашраф підтверджує, що питання захисту даних і приватності найчастіше спливає у дискусіях про штучний інтелект, дуже важливо звернути увагу на творців алгоритму. Алгоритми, як правило, встановлені певною людиною, має ґендер, мову, етнічну належність, країну походження і всі ті характеристики, які несе у собі ця людина. Іншими словами, якщо алгоритм для робота-судді в одній державі писатиме людина з іншої, є ймовірність, що установки цієї людини відобразяться у коді, а, відповідно, і у роботі системи та «справедливості» її вироків. І справа тут не лише в етиці: те, що етично, не завжди правомірно, і навпаки, і дуже залежить від контексту та світобачення.

зображення Unsplash|franckinjapan

Для того, щоб система працювала правильно, повинен бути початковий ввід (input), набір даних. Це теж додає запитань: як зібрані дані, хто зібрав дані, яка мета збору цих даних. І, відповідно, як спрацює алгоритм на основі таких даних.

Штучний інтелект і Covid-19

Дослідники пандемії коронавірусу звертають увагу на недосконалість алгоритмів і як наслідок — отримання дискримінаційних та неточних даних. До прикладу, в США для того, щоб розуміти поширення хвороби в окремих групах (як-от серед корінного населення), потрібні деталізовані дані. Натомість система в окремих штатах зараховувала таку групу до категорії «інші». Відповідно, в штатах, де кількість подібних груп висока, відслідкувати поширення хвороби серед них неможливо, а отже, і отримати реальну картину та оцінити вплив коронавірусу на маргіналізовані групи. Це впливає і на політичні дії: там, де варто було б звернути увагу на критичну ситуацію у певній спільноті і вжити необхідних заходів, ця ситуація залишається невідомою.

Ашраф наводить інший приклад: лише 2% інженерів Google темношкірі. У ситуації, коли певна група менш присутня серед розробників, є ризик того, що їх інтереси так само будуть менш враховані. Як наслідок — алгоритм працюватиме на відтворення стереотипу чи установки, наявної у певному соціумі чи групі. А можливо, навіть на поглиблення нерівності і порушення прав людини.

Важливим у часи пандемії став доступ до якісної та перевіреної інформації. І в контексті цього доступу до інформації Ашраф зазначає, що штучний інтелект може порушувати права людини на свободу зібрань та висловлення. Класно, коли на основі наших вподобань та переглядів Facebook може запропонувати саме те, що нам сподобається і приховати менш приємні дописи. Разом із тим, якщо один із ваших друзів схоче організувати подію і поширить її у своїй стрічці, є ймовірність, що ви цю інформацію не побачите, бо такий контент не був серед ваших пріоритетів.

зображення Getty images

Більше того, штучний інтелект не має емоцій та не виходить з аналізу середовища, у якому з’являється та чи інша інформація. До прикладу, YouTube блокує поширення через рекламу будь-якої інформації, яка містить слова «коронавірус», «пандемія», «насильство». Це пояснюють дуже високою популярністю теми і тим, що в мережі шириться велика кількість фейків. Але разом із тим це означає, що кампанія на підтримку постраждалих від насильства або ж збір коштів на закупку медичних костюмів фактично прирівнюється до конспірологічних теорій. І навіть якщо ви зацікавлені у благодійності, ви все одно не побачите цей контент, бо алгоритм забрав у вас право його бачити.

Можна заперечити: але ж програма не всеціло працює на коді. Це справді так: якщо, до прикладу, на відео є певна кількість скарг, воно потрапляє на розгляд до живої людини-модератора. Але і тут вмикається недосконалість системи: модератор може не зрозуміти контекст і прибрати відео, хоча, наприклад, скарги були навмисною акцією для заборони такого контенту, а саме відео не порушує стандартів спільноти. Таким чином, YouTube обмежує суспільні чи політичні рухи і відбирає у вас право на мирні зібрання.

Вихід є?

Штучний інтелект не поганий сам по собі, і як технологія він потребує подальшого вдосконалення. Оскільки порушення прав людини виникає здебільшого з огляду на те, що алгоритми пишуть люди, вирішення Ашраф також пропонує шукати у людях. Наприклад, збільшуючи кількість варіацій вхідних даних, долучаючи до команди розробників представників різних груп та поглядів, вдосконалення системи. І, звісно ж, — за допомогою консультацій юристів та правозахисників.

Штучний інтелект справді може значно покращити життя людства, якщо навчитися бачити власні сліпі плями та аналізувати контент, який пропонує новинна стрічка до кави.

При підготовці тексту використана інформація з вебінару правозахисника та співзасновника Access Now Камерона Ашрафа в рамках Lviv Media Forum.

Ця публікація підготовлена за підтримки Європейського Союзу. ЇЇ зміст є виключною відповідальністю авторки і необов'язково відображає погляди Європейського Союзу.