Автор колонки: Ілля Рєпін — публіцист, магістр політології, учасник спільноти Ґвара Медіа.
Цього року у виборчих процесах по усьому світі візьмуть участь близько двох мільярдів виборців у більше ніж у 60 країнах світу. Як багато з них щодня стають жертвами штучної дезінформації?
Наприкінці березня 2024 року ЄС звернувся до популярних соціальних мереж з проханням маркувати контент, який містить штучний інтелект, зокрема політичну пропаганду та дипфейк-контент. Це пов’язано з виборами у європейський парламент, що розпочнуться вже 6 червня. Механізми маркування політичної реклами або згенерованої дезінформації наразі тестуються.
Найпоширенішим інструментом штучного контенту на політичній арені є генерація дипфейк-контенту та дезінформації. Хоча спроба спотворити інформаційну реальність не є чимось радикально новим для політичного поля, але інструменти та можливості штучного інтелекту значно прискорюють цей процес і кількісно розширюють конвеєр пропаганди.
Контент, що навмисно поширює хибну інформацію або створений для політичної маніпуляції, зазвичай торкається текстового або візуального наповнення.
Так було, наприклад, у 2020 році після чергових виборів США. У той час мережами ширились хибні наративи про нібито масове шахрайство голосами зі сторони президента Байдена, що своєю чергою призвело до штурму Капітолія 6 січня 2021 року. Ми також пам’ятаємо дипфейк-відео, на якому згенерований за допомогою ШІ президент Зеленський закликав скласти зброю після початку повномасштабного вторгнення.
На що варто звернути увагу у 2024 році ?
Так, зроблені штучним інтелектом зображення та відео становлять потенційну небезпеку у контексті виборів, але цього року нам треба бути більше стурбованими аудіоконтентом та його роллю у дезінформації.
Нещодавно серед американських медіа ширилось згенероване аудіо Джо Байдена, який намагався відмовити демократів від голосування у штаті Нью-Гемпшир. Також набув популярності фальшивий аудіозапис голови уряду Мехіко Марті Батрес, на якому той віддає накази усунути кандидата Омара Гарсіа Харфуча через «гендерні проблеми» та «продовжувати розвивати Клару» — одну з кандидаток на пост голови уряду Мехіко. Батрес заперечив оригінальність запису, посилаючись саме на маніпуляцію за допомогою штучного інтелекту.
Поява більш переконливих аудіопідробок збільшує потенціал для маніпулювання політичними кампаніями, дискредитації опонентів і дає «необнадійливим» політикам нову можливість — оскаржувати злиті аудіозаписи як штучні вигадки.
ШІ дипфейки можуть переконливо поширювати інформацію, яку політичні актори ніколи не висловлювали. Ситуація ускладнюється, коли ми не бачимо ліпсинку — синхронного ворушіння губами під звуковий ряд. У такому разі психологічна довіра до аудіоматеріалу зростає в експоненційній прогресії. Це може змінити політичну ситуацію, якщо повідомлення нібито будуть доносити люди, яким електорат довіряє, особливо через сервіс TikTok, що легко може створювати ситуацію камери відлуння або інформаційної «бульбашки».
Як покращити ситуацію?
Поки тестування механізмів маркування політичної дезінформації ще триває, ми не можемо сказати, чи буде це достатньою ініціативою для боротьби з фейковим контентом, включно з прихованою загрозою аудіофальсифікацій. Але наразі існує модель під назвою Deep-Sonar, яка аналізує аудіозаписи. Вона обробляє спочатку кожен аудіофрагмент і перетворює на спеціальні аудіохарактеристики, які потім використовуються для визначення того, чи є аудіо справжнім. Наприклад, інтегрувавши цю систему у свої процедури перевірки контенту, соціальні мережі можуть використовувати її для моніторингу та видалення підроблених аудіозаписів до того, як вони будуть поширюватися серед користувачів.
Отже, використання Deep-Sonar соціальними мережами може значно покращити здатність платформ швидко виявляти та блокувати аудіофейки. Це особливо важливо в контексті майбутніх виборів, коли кількість фейків і політичних маніпуляцій закономірно зростає.
Автор: Ілля Рєпін, магістр політології та публіцист, Спільнотник Ґвара Медіа.
Колонка є типом матеріалів, який відображає винятково точку зору автора і може не збігатися з точкою зору редакції «Ґвара Медіа». Вона не претендує на об’єктивність та всебічність висвітлення теми, про яку йдеться. Редакція не відповідає за достовірність та тлумачення наведеної інформації та виконує винятково роль носія для суспільної дискусії на актуальну тему.
Аби творити медіа разом із читачами, ми розвиваємо Спільноту. Саме твій внесок допоможе нам купити бензин для поїздки у важкодоступні зони, ідентифікувати ще один підрозділ росіян, що атакували Харківщину, або ж зняти сюжет про мешканців міста. Долучайся!