Чи не створять нові чат-боти хаос у соцмережах
Від кулінарних рецептів до написання промов - новий чат-бот ChatGPT відповідає на різні запити користувачів. Для багатьох він став першою можливістю "погратись" із системою штучного інтелекту (ШІ).
Завдяки штучному інтелекту ChatGPT виводить обробку мови людини на новий рівень і може вести діалог, пише ВВС.
Він генерує машинний текст, схожий на той, який написала б людина.
ChatGPT може писати статті, вигадувати історії, складати вірші й навіть створювати комп'ютерний код. Він також може відповідати на запитання, підтримувати розмову і, в деяких випадках, давати докладні відповіді на специфічні запитання.
Скажіть ChatGPT, що у вас є в кухонній шафі, і він дасть вам рецепт. Потрібен швидкий вступ до великої презентації? Без проблем.
Однак чи так це добре? Його наближення до людських реакцій може стати потужним інструментом для зловмисників.
Вчені, фахівці з кібербезпеки та експерти зі штучного інтелекту попереджають, що ChatGPT може стати засобом для розпалювання інакодумства та поширення пропаганди у соціальних мережах.
Досі поширення дезінформації вимагало значної участі людини. Але штучний інтелект, як от ChatGPT, значно полегшить роботу так званим арміям тролів. Про це повідомляє спільний звіт Джорджтаунського університету, Стенфордської інтернет-обсерваторії та дослідницької компанії OpenAI.
ChatGPT може створювати інформаційні операції (чи операції впливу) у соцмережах.
Такі кампанії спрямовані на те, щоб прибрати критику та представити якусь політичну партію чи політику уряду у позитивному світлі. Вони також можуть виступати "за" чи "проти" певної політики. Використовуючи підроблені облікові записи, вони розповсюджують дезінформацію в соціальних мережах.
Одну з таких кампаній запустили напередодні президентських виборів у США 2016 року, а "фабрика тролів" з російського Санкт-Петербурга намагалася впливати на їхні результати.
Згідно з висновками спецкомітету Конгресу, для підтримки кандидата від республіканців Дональда Трампа та спаплюження іміджу демократичного кандидата Гілларі Клінтон у соцмережах та за їхніми межами були використані крадені персональні дані американських громадян для фейкових профілів в інстаграмі, твіттері й фейсбуку.
Але це - лише вершина айсберга. Фахівці переконані, що майбутні вибори, можливо, накриє ще більша хвиля дезінформації.
"Потенціал мовних моделей, як і будь-яка потужна технологія, надасть очевидні переваги пропагандистам, які вирішать ними скористатись", - йдеться у січневому звіті AI.
"Ці переваги могли б розширити доступ до більшої кількості учасників, дати можливість застосувати нові тактики впливу, краще адаптувати фейкові повідомлення та зробити їх потенційно ефективнішими", — попереджає звіт.
Збільшитись може не лише кількість дезінформації, але і її якість. Системи штучного інтелекту можуть робити контент більш переконливим, а звичайним інтернет-користувачам буде дедалі складніше його розпізнавати, каже Джош Гольдштейн з Центру безпеки та перспективних технологій при Джорджтаунському університеті.
"Генеративні мовні моделі можуть створювати великий обсяг контенту, який щоразу буде оригінальним... і дозволить кожному пропагандисту уникати копіювання й додавання одного й того ж тексту до повідомлень на сторінках користувачів соцмереж або на новинних сайтах", - пояснює він.
І якщо такого контенту буде багато, то користувачам буде дедалі складніше відрізнити правду від брехні, каже Гольдштейн.
У його звіті також зазначається, що доступ до цих систем може перестати бути прерогативою кількох організацій.
"Сьогодні невелика кількість фірм або урядів мають у своєму розпорядженні мовні моделі вищого рівня. Але збільшення інвестицій у сучасні генеративні моделі може збільшити шанси на те, що пропагандисти також отримають до них доступ", - йдеться у його звіті.
"Тролі" можуть також застосовувати технологію масового розсилання повідомлень, спаму, каже Гері Маркус, фахівець зі штучного інтелекту та засновник Geometric Intelligence, компанії, яку у 2016 році придбав Uber.
"Поширювачі спаму націлені на найдовірливіших людей - ті натискають на їхні посилання, що дозволяє максимально розширити аудиторію. А зі штучним інтелектом цей метод може набути гігантських масштабів".
Крім того, навіть якщо такі платформи, як твіттер і фейсбук, видалять три чверті зловмисного контенту, у соцмережах "все одно залишиться щонайменше у 10 разів більше контенту, ніж раніше, який може вводити людей в оману", - каже Маркус.
Сплеск фейкових облікових записів у соцмережах став серйозною проблемою, а розвиток мовних моделей заповнить соціальні платформи ще більшою кількістю фальшивих профілів.
"Система на кшталт ChatGPT може підняти підробку облікових записів на небачений раніше рівень, - каже Вінсент Конітцер, професор комп'ютерних наук в Університеті Карнегі-Меллона. - Буде дедалі важче зрозуміти, хто справжній господар акаунту - людина чи програма".
І Гольдштейн, і фахівці WithSecure Intelligence попереджають, що генеративні мовні моделі можуть швидко й ефективно створювати фейкові новинні статті в соцмережах, ще більше збільшуючи потік неправдивих повідомлень та наративи, які можуть вплинути на електорат перед важливими виборами.
Але якщо системи штучного інтелекту, такі як ChatGPT, ще більше підсилять дезінформацію і поширення фальшивих новин, то постає питання: чи мають соцмережі активніше на це реагувати? Деякі експерти вважають, що вони з цим не справляться.
"Платформи повинні позначати фальшивий контент, але фейсбук з тріском провалює цей тест", — каже Луїс Амарал, португальський фізик, відомий своїми дослідженнями складних систем і мереж.
"Причини такої бездіяльності полягають у витратах на моніторинг кожного окремого допису. Крім того, ці фейкові пости призначені для того, щоб роздратувати й розділити аудиторію. А це стимулює залучення аудиторії. Тому це вигідно насамперед для самого фейсбуку".
Читайте нас у Facebook, Telegram та Instagram.
Завжди цікаві новини!