04.08.2023
Чим небезпечний Chat GPT?

Чат GPT з’явився в листопаді 2022 року і відразу увійшов у масове користування – лише за 5 днів відмітка користувачів перейшла за один мільйон. Створення текстів, написання коду та сценаріїв за лічені хвилини…здавалось би, які ризики можуть виникнути через текстового помічника? 

Але до використання новітніх технологій треба підходити свідомо, тож чим таки може бути небезпечний Chat GPT? 

Інформаційне поле 

Штучний інтелект активно впроваджується у роботу журналістами та контент-мейкерами. Одним із прикладів впровадження штучного інтелекту в журналістику є шведська компанія United Robots, яка постачає рішення для генерації текстів декільком новинним агентствам. Вони використовують штучний інтелект і генерування природної мови (NLG) для автоматичного створення придатних для публікації новинних текстів базуючись на великих масивах даних, як наприклад про спорт, продаж нерухомості, дорожній рух, погоду, фондовий ринок і місцеві реєстрації бізнесу і т.п. Їхні роботи аналізують великі відкриті і доступні для всіх масиви даних і виявляють в них незвичайні події або ж закономірності. Згодом ця інформація може бути використана для створення статей або як сповіщення для відділу новин до подальших дій. Але варто розуміти, що штучний інтелект – це широка назва для різноманітних алгоритмів, роботів і систем, що базуються та керуються даними. Деякі з існуючих алгоритмів здатні до самонавчання і можуть підвищувати свою точність зі збільшенням обсягу наданої інформації, але в переважній кількості випадків мова йде про статичні коди, які щоразу виконують одну й ту саму функцію. Тож очікувати від штучного інтелекту “свідомості” і виявлення фейкових наративів у створеному ним контенті не варто. Тож впровадження штучного інтелекту в інформаційне поле створює загрозу швидкої (а головне – переконливої) мультиплікації фейкових новин та наративів. 

Використання персональних даних 

Штучний інтелект навчається на великих масивах, в тому числі і на тих даних, що надані Вами в ході розмови штучного інтелекту. Уся надана інформація зберігається та обробляється для подальшого навчання мовної моделі. Питання як ці дані будуть використовуватись та хто має до них доступ залишається відкритим. 

Питання етики 

Чат GPT за секунди перефразовує наданий йому текст, що підвищує рівень загрози плагіату та підіймає більш загальне питання етики та критичного мислення суспільства. Поява штучного інтелекту дає нам можливість запитати, як соціотехнічні зміни можуть допомогти створити кращий і більш справедливий світ. Спираючись на нашу глибоку взаємодію з соціальною структурою та нерівністю, ми маємо розвивати теоретичні та емпіричні ідеї, щоб надавати суспільству раціональне бачення про соціотехнічне майбутнє – і про те, як воно може вкоренитись – на рівнях індивідів, установ і суспільств. Те, як люди розгортають та інтерпретують системи штучного інтелекту, варіюється в залежності від інституційного та організаційного контексту, в якому вони впроваджуються.

Проект «Розуміння штучного інтелекту», який виконує Інститут Інноваційного Врядування, виконується завдяки фінансовій підтримці Уряду Великої Британії. Погляди, висловлені в цій публікації, належать автору і можуть не збігатися з офіційною позицією Уряду Великої Британії.