Автор колонки: Ілля Рєпін — публіцист, магістр політології, учасник спільноти Ґвара Медіа
Під час президентських виборів у Тайвані, що відбулися у січні 2024 року, кандидата Лая Чінг-де намагалися дискредитувати фальшивим відео. Одночасно понад 1500 акаунтів у твіттері, фейсбуці та тіктоці опублікували згенероване відео, у якому синтезованим голосом і рухами губ Лай нібито зізнається у наявності позашлюбної дитини та боїться викриття сексуального скандалу. Відео масово циркулювало через канали, які раніше публікували матеріали з китайських пропагандистських ЗМІ, а сама підробка містила значну кількість спрощених китайських ієрогліфів, що вказувало на ймовірний зв’язок із Китаєм. Паралельно із цим було створено низку дипфейків із віртуальними ведучими, які маскувалися під тайванців і системно атакували DPP — Демократичну прогресивну партію, яку представляв Лай Чінг-де.
Цей кейс добре ілюструє ширшу тенденцію електорального сезону 2024 року, який не виправдав найгучніших побоювань щодо «переломного» впливу штучного інтелекту на демократичні процеси. Практика показала, що ШІ сам по собі не здатен радикально змінювати політичні переконання виборців. Натомість він виявився ефективним інструментом підсилення вже наявних інформаційних бульбашок і камер відлуння. У випадку Лая Чінг-де це не призвело до різкого падіння рейтингу: він втратив лише одну позицію у передвиборчих перегонах й зрештою переміг на виборах. Водночас під час поширення фейку, за даними Google Trends, інтерес до теми «незаконної дитини» перевищив навіть запити щодо його передвиборчої програми. Це наочно демонструє, що ШІ-дезінформація працює передусім не як інструмент переконання, а як механізм емоційної мобілізації та відволікання уваги.
Якщо 2024 рік був полем тестування ШІ у виборах, то 2025-й показав уже систематичний підхід у його застосуванні. Ми отримали низку локальних, але симптоматичних прикладів використання ШІ у політичних кампаніях. Частина з них не торкнулася проблеми дезінформації й була цілком законною, а частина — відверто маніпулятивною та деструктивною до політичного поля.
Легальні сценарії
Деякі політики у 2025 році використовували ШІ-дипфейки напередодні виборів із просвітницькою метою. Наприклад, так сталося в Австралії, коли незалежний сенатор Девід Покок за кілька місяців до федеральних виборів створив згенеровані відео із зображенням прем’єр-міністра Ентоні Албанізі та лідера опозиції Пітера Даттона. Ці ролики мали пародійний зміст й відповідну позначку про використання штучного інтелекту. Сенатор Покок поширив ці дипфейки, щоб продемонструвати небезпеку синтетичної дезінформації та сприяти обговоренню проблеми. Його тактика мала позитивний резонанс: уже після виборів Покок вніс законопроєкт, що дозволяє жертвам дипфейк-втручань вимагати компенсацію за моральну шкоду.
Схожий випадок був помічений у Німеччині. На старті кампанії до Бундестагу молодий депутат від владної партії SPD Бенгт Бергт опублікував у соцмережах відео, згенероване штучним інтелектом, де пародіював голос лідера опозиції Фрідріха Мерца. У ньому голос Мерца заявляв абсурдні фрази на кшталт «Ми зневажаємо демократію», а сам допис Бергт підписав «Увага: штучна некомпетентність» як маркер сатири. Проте на відміну від досвіду Австралії, німецька сувора бюрократія відповіла у притаманний їй спосіб. Експеримент Бергта спричинив скандал, опоненти звинуватили Бергта у поширенні дезінформації. У підсумку він видалив ролик і публічно перепрошував перед Мерцем.
Хоча юридичної відповідальності за відео Бергта не було встановлено, проте ці дзеркальні випадки (Німеччина та Австралія) демонструють відсутність усталеної нормативної бази й досі наявну чутливість у використанні ШІ під час політичної боротьби. З іншого боку, побоювання перед штучними технологіями поступово, але набувають регуляторного характеру. Так, у Канаді ще до виборів органи виборчого нагляду випустили попередження, що дипфейки, синтезований голос та інші ШІ-інструменти можуть стати загрозою цілісності виборів. Також ще варто згадати поступове імплементування EU AI Act, що вже скоро повинен застосовуватися, починаючи з 2 серпня 2026 року.
Деструктивні сценарії
Набагато частіше, як й очікувалося, ШІ фігурував у негативному ключі — для введення виборців в оману, очорнення кандидатів чи підриву довіри до виборів. Усі вони мали типові сценарії, що повторювалися у різних державах. Наприклад, напередодні президентських виборів у Румунії поширили ШІ-відео за участі мера Бухареста Нікушора Дана, в якому той нібито рекламує вигадану державну інвестиційну програму. Схожу дезінформацію зафіксували у низці інших країн. Зокрема, під час парламентської кампанії у Чехії, де були помічені ролики з політиками, що «рекламують інвестиції». Так само у Канаді, коли в розпал виборів виявили підроблене інтерв’ю з лідером Ліберальної партії Марком Карні, де він буцімто схвалює сумнівну криптовалютну схему. Таке трапляється не вперше. Варто згадати ще й фейкове відео з експрем’єром Великої Британії Ріші Сунаком у 2024 році — «інвестиційні фейки» вже мають ознаки системної дискредитації чи політтехнології.
У 2025 році був помітний й інший тренд застосування політичної дезінформації за допомогою ШІ. У жовтні, за кілька днів до президентських виборів в Ірландії, в інтернеті з’явилося підроблене відео, стилізоване під випуск новин RTÉ, де від імені кандидатки Кетрін Конноллі оголошувалося про її зняття з перегонів. Насправді Конноллі нікуди не виходила. Подібна тактика — запуск фейкових повідомлень про «відмову кандидата від участі» — застосовувалася і в Аргентині, прямо в день голосування на місцевих виборах у Буенос-Айресі. Там теж були розповсюджені два згенерованих відео з брехливою заявою про вихід одного з претендентів зі змагання.
На цьому тлі вже стає помітна еволюція самих агентів дезінформації. Після досвіду 2024 року вони дедалі менше покладаються на «ефект новизни» ШІ й все більше інтегрують його у класичні методи електоральних маніпуляцій. Логіка таких фейків проста: запустити неправдиве повідомлення в найбільш критичний момент виборів, коли часу на перевірку обмаль. Виборці, що вагаються або не мають стійких політичних симпатій, можуть не встигнути розібратись, де правда, а де — ні, що явно відобразиться на їхньому активному виборчому праві.
Якою була дійсна шкода?
Досвід виборів 2025 демонструє, що найбільш помітна загроза використання штучного інтелекту у виборах полягає не стільки в масштабності його впливу, скільки в структурних слабкостях, які він посилює. У більшості деструктивних випадків майже неможливо точно визначити, хто саме стояв за створенням і поширенням фейкового контенту. Ця особливість досі залишається каменем спотикання з боку держави та виборних органів і фактично знижує ціну порушень. Тісно із цим пов’язана друга системна проблема — відсутність чітких і уніфікованих юридичних норм відповідальності за використання ШІ у виборчих практиках. Особливо це помітно у випадку між схожими «сюжетами» прозорого використання ШІ в Австралії та Німеччині.
Отже, завдана «шкода» була радше точковою і симптоматичною, аніж глобальною. ШІ-дезінформація продовжує проявляти себе не як автономна загроза демократії, а як каталізатор уже наявних проблем інформаційного середовища.
Колонка є типом матеріалів, який відображає винятково точку зору автора і може не збігатися з точкою зору редакції «Ґвара Медіа». Вона не претендує на об’єктивність та всебічність висвітлення теми, про яку йдеться. Редакція не відповідає за достовірність та тлумачення наведеної інформації та виконує винятково роль носія для суспільної дискусії на актуальну тему.




