У звіті Європолу йдеться про те, що ChatGPT та інші генеративні системи штучного інтелекту можуть бути використані для онлайн-шахрайства та інших кіберзлочинів.
Про це повідомляє Euractiv.
Попри користь, яку можуть принести звичайним людям генеративні моделі штучного інтелекту, серед яких ChatGPT, поширення таких інструментів призведе до нових проблем, з якими зустрінуться правоохоронні органи.
«Зазвичай злочинці оперативно вивчають та застосовують нові технології й починають їх експлуатувати у своїй злочинній діяльності. Ці тенденції фахівці почали відзначати за декілька тижнів після публічного анонсу ChatGPT», — йдеться у звіті .
Фахівці Європолу підкреслюють, що правила модерації ChatGPT можна обійти за допомогою так званого оперативного проектування, практики надання вхідних даних у модель AI саме для отримання певного результату.
Оскільки ChatGPT є відносно новою технологією, незважаючи на його постійне покращення та оновлення, у цьому інструменті постійно виявляються прогалини. До прикладу, існують команди, завдяки яким штучний інтелект може використовуватись для злочинної діяльності, хоча якщо такі команди надати ChatGPT у звичайному форматі, він обов’язково попередить, що його роботу не можна застосовувати у злочинній діяльності.
Проте якщо змінити окремі слова запиту чи контект, він може стати непоганим інструментом кіберзлочинців. Фахівці підкреслюють, що обхідні шляхи, яким вдається позбутися моделі від будь-яких обмежень, постійно розвиваються та стають складнішими.
Уже було виявлено низка випадків незаконного використання останньої версії ChatGPT, яка працює на основі мовної моделі GPT-4.
То ж нова технологія може пришвидшити й спростити процес дослідження зловмисника, який готується вчинити злочин.
«Хоча вся інформація, яку надає ChatGPT, є у вільному доступі в Інтернеті, можливість використовувати модель для надання конкретних кроків, ставлячи контекстуальні запитання, означає, що зловмисникам значно легше краще розуміти та згодом здійснювати різні види злочинів», - йдеться у звіті.
Фахівці Європолу пропонують запровадити жорсткіші вимоги до ChatGPT, проте навіть в цьому випадку зловмисники не перестануть використовувати генеративні моделі штучного інтелекту у власних цілях.
Раніше «Інтернет свобода» розповідала про те, що влада Китаю висунула вимогу технологічним компаніям пропонувати своїм користувачам доступ до чат-бота ChatGPT.