Алгоритми впливу: як штучний інтелект підсилює пропаганду і що з цим робити
Штучний інтелект став новим інструментом впливу на інформаційний простір. Алгоритми не лише поширюють контент, а й формують спосіб, у який користувач його сприймає. У 2026 році ризики для України пов’язані не тільки з фейками, а й із тим, як пошукові та рекомендаційні системи можуть підсилювати російські наративи. Як працює цей механізм і де проходить межа відповідальності – розповідає Frontliner.
Алгоритми соціальних мереж і пошукових систем орієнтуються на залучення. Це означає, що емоційний, конфліктний або спрощений контент отримує перевагу. Саме такі характеристики часто мають пропагандистські повідомлення. У результаті користувач може отримувати викривлену картину подій, навіть не шукаючи її свідомо.
Додатковий ризик створює генеративний ШІ. Він здатен швидко виробляти великі обсяги текстів, зображень і відео, які виглядають переконливо. Це знижує поріг для створення дезінформації і дозволяє масштабувати її без значних ресурсів.
Як ШІ-пошук змінює споживання інформації
Системи пошуку на основі ШІ дедалі частіше формують готові відповіді замість переліку джерел. Це змінює поведінку користувача: він рідше переходить до першоджерел і більше довіряє згенерованому узагальненню. Якщо в навчальних даних або джерелах є викривлення, вони можуть відтворюватися у відповідях.
Для України це означає ризик непомітного проникнення ворожих інтерпретацій. Навіть нейтрально сформульовані відповіді можуть містити акценти, вигідні російській пропаганді, якщо вони присутні в інформаційному середовищі. Це особливо критично для тем війни, міжнародної політики і безпеки.
Які загрози для державної безпеки
Поширення дезінформації через алгоритми впливає не лише на окремих користувачів, а й на суспільні настрої. Масове відтворення сумнівів, страхів або недовіри до інституцій може змінювати поведінку людей і послаблювати стійкість держави.
Окрему роль відіграють таргетовані кампанії. Алгоритми дозволяють точно визначати аудиторії і адаптувати повідомлення під їхні очікування. Це робить пропаганду менш помітною і більш ефективною, адже вона виглядає як органічний контент.
Як зменшити вплив: що може зробити користувач
- перевіряти інформацію в кількох незалежних джерелах
- не довіряти автоматично згенерованим відповідям
- звертати увагу на джерела і контекст
- уникати поширення емоційного контенту без перевірки
- налаштовувати інформаційне середовище, обмежуючи сумнівні канали
Ці дії не усувають ризики повністю, але зменшують їхній вплив.
Роль держави і регулювання
За формування політики інформаційної безпеки і взаємодію з технологічними компаніями відповідає держава. Йдеться про вимоги до прозорості алгоритмів, обмеження дезінформаційних мереж і підтримку національного інформаційного середовища.
На міжнародному рівні формується підхід до регулювання ШІ. Зокрема, обговорюються правила щодо відповідальності платформ за контент і вимоги до маркування згенерованих матеріалів. Для України важливо інтегруватися в ці процеси, щоб мати інструменти впливу на глобальні платформи.
Водночас жодне регулювання не замінить критичного мислення користувача. Алгоритми лише підсилюють ті сигнали, які вже існують у суспільстві. Тому стійкість до пропаганди формується не лише законами, а й щоденною поведінкою людей.
Штучний інтелект не створює пропаганду з нуля, але робить її швидшою, точнішою і масштабнішою. І саме це перетворює його на фактор, який напряму впливає на безпеку.
***
Frontliner висловлює вдячність за фінансову підтримку Європейського Союзу через проєкт “Підтримка прифронтових медіа та розслідувальної журналістики”, що втілюється Internews International у партнерстві з громадською організацією “Media Development Foundation” (MDF). Frontliner зберігає повну редакційну незалежність, а надана інформація не обов’язково відображає позицію Європейського Союзу, Internews International або MDF.