Небезпечні відповіді: як ШІ може відтворювати меседжі ворога
Штучний інтелект може поширювати шкідливі пропагандистські меседжі. Це створює додаткову інформаційну загрозу для українців, особливо у темах війни, оборони та міжнародної підтримки. Неперевірені відповіді ШІ здатні впливати на суспільні настрої, підживлюючи паніку або недовіру. Frontliner пояснює, як розпізнати такі ризики й убезпечитися від них.
Якщо останні кілька років головними каналами поширення дезінформації були соцмережі, то тепер до них додалися генеративні моделі штучного інтелекту – такі, як ChatGPT. Їхня проблема в тому, що вони можуть відтворювати не лише правдиві факти, а й перекручені або небезпечні меседжі, зокрема ті, що збігаються з російською пропагандою.
Зміна формулювання запитання, мови чи навіть емоційного тону може призводити до різних, часом суперечливих, відповідей. У темах війни це небезпечно: ШІ може ненавмисно повторювати ворожі штампи – від сумнівів у праві України на оборону до маніпуляцій про міжнародну підтримку.
Чому ШІ може транслювати пропаганду
Моделі на кшталт ChatGPT не «розуміють» сенсів і не відокремлюють правду від брехні. Вони працюють з масивами текстів, у яких можуть бути й пропагандистські матеріали. Якщо у навчальних даних або подібних запитах були присутні ворожі наративи, модель може їх відтворювати, іноді майже дослівно, іноді у більш м’якій формі, що робить маніпуляцію менш помітною.
Ще одна проблема – відсутність критичного мислення у самої моделі. Вона не перевіряє факти, не аналізує джерела та не вміє визначати, чи є інформація шкідливою. Це завдання залишається за користувачем.
Чим це загрожує під час війни
Українці щодня стикаються з величезним обсягом інформації про фронт, втрати, міжнародну допомогу. Навіть один неправдивий або перекручений факт, створений і поширений за допомогою ШІ, може вплинути на настрої суспільства. Пропаганда ворога цим користується та підживлює паніку, сіє недовіру до влади, ЗСУ чи союзників.
Тим часом «відповіді» ШІ можуть виглядати як нейтральні, але містити приховані сумніви, перебільшення або підміну понять. Користувач може навіть не усвідомлювати як це змінюватиме його ставлення до подій.
Як убезпечитися від ворожих наративів у відповідях ШІ
- Перевіряйте інформацію з кількох джерел – особливо офіційних або авторитетних українських та міжнародних медіа.
- Використовуйте пошук – перевіряйте дати, імена, цифри, документи.
- Не поширюйте неперевірене – навіть якщо відповідь ШІ виглядає переконливо.
- Зважайте на формулювання запитань – іноді зміна одного слова радикально впливає на відповідь.
- Будьте уважні до маніпуляцій – сумнівів у легітимності України, применшення воєнних злочинів РФ, перекладання провини на жертву.
- Не використовуйте ШІ як єдине джерело – сприймайте його як інструмент, а не як експерта.
Штучний інтелект не є ані другом, ані ворогом. Але в умовах війни будь-який інструмент, який може відтворювати дезінформацію, перетворюється на потенційну зброю. Тому слід навчитися користуватися ним безпечно: перевіряти, аналізувати, не довіряти сліпо. Тоді ШІ стане помічником, а не каналом для ворожої пропаганди.
***
Здійснено за підтримки Асоціації “Незалежні регіональні видавці України” та Amediastiftelsen в рамках реалізації проєкту Хаб підтримки регіональних медіа. Погляди авторів не обов’язково збігаються з офіційною позицією партнерів.
Читайте також — Не дай себе обдурити: гігієна розуму у часи війни