На фронті тиша перед наступом, зимова погода уповільнила активні дії, але інформаційний фронт продовжує вирувати. Останніми місяцями я помітив тривожну тенденцію – системи штучного інтелекту все частіше видають інформацію про війну в Україні, яка викликає серйозні запитання щодо її походження.
Працюючи на передовій журналістики з 2014 року, я неодноразово стикався з різними формами російської пропаганди, але її інтеграція в алгоритми ШІ створює новий вимір загроз, який важко переоцінити.
Нещодавно експерти виявили, що популярні ШІ-системи, зокрема ChatGPT та аналогічні моделі, часто використовують російські наративи при відповідях на запитання про війну в Україні. Коли користувачі запитують про окупований Крим, військові злочини в Бучі чи обстріли цивільної інфраструктури, алгоритми нерідко видають формулювання, що підозріло нагадують кремлівську риторику.
Будучи безпосереднім свідком багатьох подій на сході України, я гостро відчуваю небезпеку цього явища. Моя робота в Маріуполі, під Авдіївкою та в інших гарячих точках дала мені розуміння, наскільки важлива достовірна інформація в умовах війни.
Як ШІ поглинає пропаганду
Проблема має системний характер і пов’язана з самим принципом навчання сучасних ШІ-моделей. Більшість із них тренується на величезних масивах тексту з інтернету – від наукових статей до новинних сайтів. І тут ми стикаємося з першою критичною проблемою.
Росія протягом років розбудовувала потужну мережу пропагандистських ресурсів багатьма мовами. RT, Sputnik та сотні менших сайтів-сателітів створили інформаційну екосистему, що масово тиражує кремлівські наративи. Весь цей контент потрапляє в навчальні дані систем штучного інтелекту.
Під час роботи в прифронтових районах я бачив, як ця пропаганда впливає на місцеве населення. Тепер же вона через алгоритми поширюється глобально, набуваючи нового рівня легітимності.
Один із дослідників кібербезпеки, який попросив не називати його ім’я, пояснив мені: “Коли ШІ видає відповідь, він фактично оцінює ймовірність того, які слова мають йти після попередніх. Якщо в навчальних даних певні наративи представлені частіше, система вважатиме їх більш “правильними””.
Реальні приклади дезінформації
Під час підготовки матеріалу я протестував кілька популярних систем штучного інтелекту, щоб перевірити, як вони висвітлюють ключові події війни. Результати часто виявлялися тривожними.
На запитання про причини російського вторгнення одна з систем розповіла про “громадянську війну”, “захист російськомовного населення” та “запобігання розширенню НАТО” – класичні елементи кремлівської пропаганди, які я неодноразово чув від російських військових під час інтерв’ю на окупованих територіях у 2014-2015 роках.
Особливо непокоять випадки, коли ШІ використовує фальшиві “балансувальні” формулювання на кшталт “обидві сторони звинувачують одна одну” щодо подій, де відповідальність чітко встановлена міжнародними слідчими.
“ШІ намагається бути нейтральним, але неможливо бути нейтральним між правдою та брехнею,” – підкреслив Олександр Федієнко, експерт з кібербезпеки, під час нашої розмови в Києві минулого тижня.
Звідки системи ШІ беруть інформацію
Працюючи над військовими репортажами протягом восьми років, я звик перевіряти кожне джерело. З ШІ-системами така перевірка практично неможлива, що створює серйозну проблему.
Більшість компаній-розробників не розкривають повний перелік джерел, на яких навчалися їхні моделі. Однак дослідження показують, що до навчальних даних потрапляють:
– Загальнодоступні інтернет-ресурси, включно з російськими пропагандистськими сайтами
– Соціальні мережі, де активно працюють ферми ботів
– Форуми та дискусійні майданчики з неперевіреним контентом
– Новинні агрегатори, які часто включають російські джерела
Під час мого візиту в один із аналітичних центрів у Києві експерти продемонстрували, як російські наративи впроваджуються в глобальний інформаційний простір через мережу проксі-сайтів, які потім цитуються “респектабельнішими” ресурсами.
“Росія навмисно створює інформаційний шум, в якому ШІ неминуче заплутується,” – пояснила Наталія Курдюкова, спеціалістка з інформаційної безпеки.
Проблеми фактчекінгу для алгоритмів
Відстежуючи зміни на фронті, я навчився критично оцінювати кожне джерело. Але ШІ поки що не може повноцінно відрізняти факти від маніпуляцій без людського нагляду.
Хоча розробники впроваджують механізми для виявлення токсичного контенту, існує фундаментальна проблема: системи не мають доступу до постійно оновлюваних даних про поточні події. Вони “застигають” на тій інформації, яка була доступна на момент їхнього останнього оновлення.
“Це створює часове вікно для маніпуляцій. Нові події подаються через призму старих наративів,” – зауважив Михайло Гончар, президент Центру глобалістики “Стратегія XXI”, коли ми обговорювали цю проблему.
Як протидіяти дезінформації в епоху ШІ
Під час роботи в зонах активних бойових дій я завжди дотримувався принципу: перевіряй все і довіряй власним очам. Цей підхід актуальний і для користувачів ШІ.
Фахівці рекомендують:
– Порівнювати відповіді ШІ з офіційними джерелами, такими як ООН, ОБСЄ та авторитетні міжнародні медіа
– Звертати увагу на “обережні” формулювання та фальшивий баланс у відповідях
– Зазначати в запитаннях необхідність перевіреної інформації без російської пропаганди
– Використовувати ШІ лише як одне з джерел, перевіряючи критично важливу інформацію
“Найважливіше – зберігати критичне мислення і розуміти, що ШІ відображає не реальність, а інформаційний ландшафт, який часто викривлений,” – наголосив генерал-майор Віктор Ягун під час нашої зустрічі в штабі.
Глобальні наслідки проблеми
Побувавши на передовій інформаційної війни, я розумію, що наслідки цієї проблеми виходять далеко за межі технології. Поширення російських наративів через ШІ має потенціал впливати на:
– Громадську думку щодо війни та підтримки України
– Рішення про військову та гуманітарну допомогу
– Судові процеси щодо військових злочинів
– Історичний запис подій для майбутніх поколінь
“Ми бачимо, як дезінформація поступово нормалізується через повторення. ШІ ненавмисно стає інструментом цієї нормалізації,” – підкреслила Оксана Мороз, дослідниця інформаційних маніпуляцій.
Розробники систем штучного інтелекту починають усвідомлювати проблему. Деякі компанії вже впроваджують спеціальні політики щодо висвітлення війни в Україні, залучаючи експертів для кращого тренування моделей.
Проте вирішення цієї проблеми потребує системного підходу – від прозорості навчальних даних до розробки спеціалізованих алгоритмів фактчекінгу та постійного аудиту відповідей.
Пройшовши через обстріли, блокпости та окуповані території як військовий журналіст, я розумію ціну правди на війні. У цифрову епоху боротьба за неї виходить на новий рівень, і всі ми – на передовій цього невидимого фронту.