Наглядова рада Meta розкритикувала роботу автоматичної модерації контенту
21 вересня 2022
21.09.2022

Наглядова рада Meta заявила, що автоматизовані інструменти модерації контенту для соціальних платформ не працюють належним чином. Це довела історія з автоматичним видаленням відео, на яких колумбійські поліцейські б’ють людей та його поверненням після апеляцій.

Про це повідомляє TheVerge .

Наглядова рада Meta Platform, незалежний орган, який фінансується Meta та вирішує складні моменти щодо використання платформи та системи її модерації, розглянула кейс щодо видалення відео, на якому колумбійські поліцейські б’ють чоловіка кийками.

Спочатку відео було додане до бази даних Meta Media Matching Service, що означало, що система Meta автоматично позначала його для видалення відразу після публікації його користувачами. Проте після масових апеляцій, що оскаржували ці дії Meta, відео повернули. Загалом скарги подали 215 осіб і 98% апеляцій були успішними. Однак Meta не видалила відео зі своєї бази даних, поки наглядова рада не зайнялася розглядом цього кейсу.

У рішенні наглядової ради сказано, що «використання автоматизованих систем для видалення контенту та додавання його Media Matching Service можуть посилити вплив неправильних рішень окремих модераторів». В деяких випадках рішення системи можуть бути успішно оскаржені, проте іноді зображення, заборонені на підставі одного неправильного рішення, можуть залишатися заблокованими на невизначений час, навіть якщо окремі модератори пізніше дійдуть іншого висновку.

«Наглядова рада особливо стурбована тим, що Meta не вимірює точність роботи Media Matching Service для певної політики щодо вмісту», — зазначається у рішенні. «Без цих даних, які мають вирішальне значення для покращення роботи цих інструментів, компанія не може сказати, чи працює ця технологія більш ефективно для дотримання стандартів спільноти».

Як повідомлялося раніше, наглядова рада Facebook залишила акаунти Дональда Трампа заблокованими