
Понад чверть усіх відео, які YouTube рекомендує новим користувачам, — згенеровані штучним інтелектом. В Іспанії ШІ-канали зібрали понад 20 мільйонів підписників, у Південній Кореї — 8,45 мільярда переглядів, а найбільший подібний канал в Індії перевищив позначку у 2 мільярди переглядів. ШІ-відео бувають різного спрямування — від музики та озвучених голосом ШІ казок до пародій на зірок шоубізнесу та відомих політиків — і приносять їхнім авторам значні доходи. І це лише частина тривожних фактів про масове поширення ШІ-контенту.
YouTube все частіше просуває так звані AI slop і brainrot-ролики, які створюються суто для набору переглядів. Це кліпи, які легко дивитися, але які не несуть змісту. Значну частину рекомендацій для нових користувачів формує автоматизований контент, а не робота живих авторів. Саме нові користувачі особливо вразливі, бо їхній перший досвід формується з AI-сміття до того, як людина знайде цікавих їй авторів.
Відео, створені за допомогою ШІ, є дешевими у виробництві, вони можуть масово завантажуватися і спеціально оптимізуються під інтереси глядача та нескінченне гортання ним стрічки – так званий doomscrolling. Дослідники Amazon Web Services заявляють, що до 57% інтернет-простору вже може бути наповненим низькосортним AI-контентом.
І поки YouTube та TikTok лише починають впроваджувати інструменти проти діпфейків, питання контролю низькоякісного AI-контенту залишається відкритим, а в Україні він набирає шалених обертів. Найбільшого поширення набувають відео, які спекулюють на почуттях виснажених війною українців. Автори такого контенту не гребують використанням голосів та зовнішності військових та відомих політиків.
Хто стоїть за анонімними відео, чи здатні українці відрізнити згенерованих персонажів від реальних та чи буде запроваджене регулювання ШІ–контенту, – у розмові експертки з комунікацій, комунікаційної директорки Фонду Open Ukraine Олени Коноплі із засновницею ініціативи з інформаційної гігієни «Як не стати овочем» Оксаною Мороз.
Подкаст виходить в межах спецпроєкту з інформаційної безпеки Open Reality.
Чому військові в ТікТок — це ідеальний «гачок»
ОК: Що ви думаєте про ролики зі згенерованими відео українських військових, які просять їх підтримати, підписатися або натиснути лайк?
ОМ: Це чергова спроба знайти спосіб, яким чином формувати своєрідну мережу каналів – Telegram, ТіkТоk, YouTube, будь-яких, на яких потім буде транслюватися щось, що буде нами маніпулювати. Як працюють дані короткі відео? Знаходиться гачок, який нас емоційно максимально захопить.
У даному випадку це військові, тому що ми, особливо цивільні, реагуємо на них дуже емоційно. По-перше, ми дуже вдячні військовим. По-друге, вони начебто більше знають про те, що відбувається. А у нас є постійна потреба в цьому, адже є постійний вакуум. Ми бачимо людину, яка називає себе військовим. Ми бачимо картинку, яка у нас особливих сумнівів у тому, що це військовий, не викликає. І ми бачимо ще й заклик – ця людина просить нас щось для неї зробити. Ну як тут не зробити?
А якщо ми на це все подивимося з іншого боку, то бачимо якісно створене штучним інтелектом відео, яке має за мету захопити нашу увагу і прив’язати до конкретного майданчика. В даному випадку це ТіkТоk-акаунти чи YouTube-канали. Це дуже схоже на ролики на початку війни, де ми бачили, наприклад, генерала Залужного, який говорив: «Віриш у нашу перемогу – тисни лайк». І людина, сама цього не розуміючи, підписувалася на канал, який потім вже вкидав різноманітного роду маніпуляції: від шахрайства до російської пропаганди.
«Якщо ви відчули настільки сильну емоцію, яка стимулює одразу щось зробити – прокоментувати, натиснути, лайкнути тощо – це явна ознака того, що вами маніпулюють».
Це можуть бути дуже різні цілі. Це може бути прокачка акаунтів під майбутні вибори. Це може бути чітка російська акумуляція людей в певному акаунті. Це можуть бути шахраї. Це може бути все разом. Одне зрозуміло – нічого доброго там не буде.
Дискредитація влади та меседж про «знесення» Верховної Ради
ОК: От з приводу того, навіщо і кому це потрібно. Мене ще здивував тип відео, пов’язаний з певними закликами. На них хлопці або дівчата у військовій формі вриваються до Верховної Ради і вимагають «навести порядок в країні». Це підбурювання до якихось протестних настроїв чи що це?
ОМ: Насправді тут дуже важливо зрозуміти, коли це з’явилося. Це з’явилося тоді, коли спалахнув «Міндічгейт» і почалися справи в тому числі щодо депутатів. Росіяни не вигадують нічого нового, вони беруть ту емоцію, яка зараз на піку у суспільства. Коли людина (як правило, це на цивільних орієнтовано) бачить несправедливість, яка, з одного боку, пов’язана з «чиновниками, які крадуть», з іншого боку, це несправедливість щодо військових, – то оце емоційне коло, яке має стимулювати до чогось. До чого? Якщо подивитися, що вони говорять, то це старий і, на жаль, дуже системний меседж, який просуває росія – “знести” Верховну Раду. З початку повномасштабного вторгнення вони всіляко, різними хвилями намагалися підбурити людей: мовляв, всіх депутатів на фронт, всіх розстріляти і т.д. Це йшло різними хвилями в різні періоди, щоб легітимність Верховної Ради зникла. Це накладається, звісно, на системну нелюбов українців до Верховної Ради і депутатів як таких.
ОК: Влади загалом.
ОМ: Влади загалом. І коли виникають інфоприводи, росіяни їх підсилюють певними відео. В даному випадку відео, де нібито військові прийшли в Верховну Раду. Якщо ми придивимося до них, побачимо, що у них, як правило, є інвалідність — ампутована рука або нога. Тобто створюється образ людини, яка не просто воювала, вона фізично постраждала. І це ще одна емоція. І ось ця людина по праву того, що віддала здоров’я, хоче, щоб депутати просто зробили щось справедливо, а депутати цього не роблять. Тут вже комбо емоцій, яке піднімається всередині українця, який бачить несправедливість. І ось тут уже питання – куди росія його буде тягнути – чи до повалення влади, і до думки про нелегітимність влади або її корумпованість.
Інформаційна кампанія «Кінець війни» та емоційні гойдалки
ОК: Вони грають на типових схильностях українців, таких як нелюбов до влади чи звичку сваритися. А от третій тип ШІ-відео. Тут я, чесно кажучи, не розшифрувала, в чому меседж. Тут типовий сюжет у тому, що є а-ля «российская дума», і якісь депутати виходять на трибуну і кажуть про те, що потрібно закінчувати цю війну. Також є сюжети про росіян, які начебто виходять на «красную площадь» з прапором України і говорять про те, що треба закінчувати цю війну. Це що?
ОМ: Тут теж є кілька меседжів. Один з ключових – це інформаційна кампанія «кінець війни». Це те, що теж дуже “качає” росія. І в основному ми це бачимо через вкиди в іноземні медіа, коли вкидається інформація, яка підсилює або тези Трампа, або ще чиїсь думки, що от сьогодні (завтра, післязавтра), або в травні-червні буде закінчення війни. Це дає ось ці емоційні гойдалки, які дуже розбалансовують українців. Тому що природно для будь-якої людини (це вже варто з психологами проговорити) мати якусь точку опори, до якої потрібно дійти і видихнути. І коли ти до неї доходиш і розчаровуєшся, то ти дуже-дуже сильно втрачаєш і емоційно, і по здоров’ю. І от росіяни намагаються нас цими емоційними гойдалками максимально добити (окрім всього того, що вони роблять). Тому ось ця кампанія з кінцем війни – це один з векторів, який вони постійно намагаються підтримувати в інфополі. Було дуже багато різних типів таких відео в ТікТоці і т.д. Коли з’явився ChatGPT, робили його прогнози. Запитали, коли закінчиться війна – ChatGPT сказав: у такому-то році. Ще вони вкидали дуже багато висновків різноманітних магічних спеціалістів різного штибу.
ОК: Те, що ми бачимо, це діпфейки?
ОМ: Де-факто так. Але для людини, яка є споживачем цього контенту, неважливо, чи це якась вдала нарізка з накладеним голосом, чи це згенерований штучним інтелектом діпфейк. Тому що вона бачить де-факто і чує те, що виглядає дуже правдоподібно. Тобто ще років 2-3 тому ми б могли з вами говорити, скільки пальців на зображенні, якщо діпфейк, що їм там 7, а не 5, і так далі. Зараз технології штучного інтелекту вже розвинуті настільки, що фактично його неможливо відрізнити, навіть якщо ти хороший спеціаліст. Є такі російські фейки, в яких навіть не прибирають лого додатку, в якому це створювалося, але люди все одно цього не помічають, бо картинка дуже емоційно затягує.
«Основна підступність цих відео в тому, що в 10-15 секунд вам вкладається емоційно забарвлена і дуже стисла інформація, така, яку ви не можете не проковтнути, навіть якщо ви знаєте, що це фейк».
Як не бути обманутим: три правила інформаційної гігієни
ОК: Так а що тоді робити? Не хочеться ж бути обманутим. Хотілося б, щоб люди самі могли розпізнати фейки і не вірити їм. Але як цього досягти?
ОМ: Тут ключове слово – хотілося б. Тому що тут дуже важливо зрозуміти, в якій реальності ми живемо і на чому нам сконцентрувати зусилля. Ми живемо в перехідний етап, коли правил немає. Тому що на наших очах спочатку розвивалася цифрова ера, потім почала розвиватися ера штучного інтелекту. Одне на інше наклалося. І фактично не встигли напрацюватися і відповідно обрости знаннями, які перейшли би в навички, правила. Ми імпульсивно кажемо «ну як ти не бачиш, це ж фейк», – а людина цього не бачить. Вона просто зчитує емоцію.
Що ми можемо робити? Перше – це боротися за першоджерело інформації, яке вкрай важливе для нашого мозку, для наших рішень. Щоб ваша мама чи мій тато спочатку йшли в «білі» медіа і звикли спочатку там читати новини. Друге – мінімізувати анонімні джерела серед тих, де ви берете новинну інформацію. Зокрема, ми маємо еру Telegram в Україні. І коли ви заходите в анонімний Telegram-канал, де неможливо ідентифікувати, хто його веде, то ймовірність того, що ви там прочитаєте фейкову новину, фактично 100%.
ОК: А як одразу ідентифікувати анонімний канал? Вони всі мають назви. А хтозна, за нею є якась людина чи немає? Як по-простому одразу це зрозуміти?
ОМ: От буквально за назвою можна зрозуміти. Тому що коли ви клікаєте на назву чи на логотип, ви переходите на опис каналу чи сторінки. В описі має бути щось, що ви можете ідентифікувати, загугливши чи іншим способом пошукавши інформацію. Тобто ім’я людини, яка веде цей канал, назва організації, медіа, ім’я блогера – тобто будь-що, за що можна зачепитися. А не просто фраза «оперативні новини», «найсвіжіша інформація», «щодо реклами писати сюди». Тобто, якщо є щось, за чим ви можете перевірити людину, організацію – це не анонімне джерело. Таких переважна меншість. Якщо ви клікаєте, а там немає в описі нічого, значить, ніхто не несе відповідальності за інформацію в цьому каналі. І, як правило, такі джерела функціонують за бізнес-моделлю «опублікувати інформацію першими». Якщо ж ви прагнете опублікувати інформацію першими, ви її не будете перевіряти, бо тоді ви не будете першими. І саме це – чи не основний момент, чому там переважають маніпуляції, емоційні гойдалки, фейки і т.д.
Тому варто йти в першу чергу в нормальні медіа, брати там інформацію, і не звалитися потім у телеграм-канали (наприклад, коли дивитеся на тривогу і паралельно одним оком читаєте який-небудь канал-мільйонник, який вам розказує, що ЖАХ (великими літерами) і «все пропало»).
І третє. Відслідковуйте емоцію, яка вас зачепила. Я завжди розказую на своєму прикладі. Я в комунікаціях понад 20 років. Я знаю, як це все працює. Але за час повномасштабного вторгнення я тричі на своїй сторінці поширила фейки. І всі ці три рази це був емоційний гачок, коли мені або дуже хотілося, щоб це було правдою, або це було щось, що дуже виглядало правдою. От на початку повномасштабного вторгнення наші зробили фейк, що начебто росіяни визнали, що вони б’ють по житлових будинках. І от був черговий удар, коли потрапили в житловий будинок. Ми тоді ще не були підготовлені настільки, як зараз. І я це запостила. І тільки потім мені вже сказали: «ти молодець, але, власне, це наше ІПСО». Тобто щоразу я попадалась на те, що емоційно дуже сильно для мене звучало.
Це не обов’язково емоція жаху. Це може бути емоція «я хотіла це побачити і мені дали». Це може бути емоція дуже великої радості. Але це завжди емоція, яка спонукає щось зробити: поширити, прокоментувати, поставити лайк, переслати комусь іншому, розказати комусь телефоном і т.д. І от коли ми ловимо себе на тому, що от вже рука тягнеться це поширювати, – треба зупинитися. Це вкрай важко. Але якщо ви будете виконувати хоча б перші два пункти, які набагато легше зробити, тобто йти спочатку в медіа, а потім у соціальні мережі, і не йти в анонімні, – то цього вже буде більш ніж достатньо.
Хто найбільш вразливий до маніпуляцій?
ОК: Виходить, що навіть якщо експертка вашого рівня також допускала помилки і поширювала фейки, то що тоді казати про звичайних людей. І отут хочу спитати: як ви думаєте, які аудиторії найбільш вразливі для подібних маніпуляцій? І якими каналами до цих людей можна достукатися, щоб попередити?
ОМ: Наша впевненість у тому, що ми вміємо розрізняти фейки, – наш найбільший ворог. Тому що є дослідження, які з року в рік підтверджують одну й ту саму тенденцію. Це дослідження Інтерньюз, де на запитання, чи вмієте ви розрізняти фейки і правду в інформаційному полі, приблизно 70-80% українців впевнено кажуть «так». Але коли їм дають безпосередньо приклади і питають, це правда чи брехня, то правильно визначити це можуть 3-11% в залежності від року дослідження. І ось це – ключова проблема. Насправді немає людини, якою не можна маніпулювати. Питання, в якому ми емоційному стані, в який це час доби і багато інших моментів. Тобто якщо на нас летять ракети, ми чуємо вибухи, ми будемо набагато вразливіші. Після безсонної ночі, після холодних батарей і т.д. ми будемо набагато вразливіші. Тому росія свої всі удари супроводжує ще й інформаційними операціями, бо це більш інтенсивно.
І коли мене питають, хто більш чи менш вразливий, у мене завжди одна відповідь: всі. І оце дуже велика помилка – вважати, що діти більш вразливі, чи люди старшого віку більш вразливі. Дослідження підтверджують, що всі ми однаково підпадаємо під вплив дезінформації. Тут слово «дезінформація» не дуже коректно, м’яко кажучи, вживати, тому що де-факто правдою теж дуже добре маніпулюють. Правда, яка сказана в певний момент часу, під певним ракурсом, з певними акцентами. Уявіть собі, 24 лютого 2022 року виходить президент і каже: ви знаєте, ця війна буде тривати довше, ніж Друга світова.
ОК: Це дуже демотивувало б.
ОМ: Це б нас просто добило. Ті ж слова Арестовича про «2-3 тижні» насправді були помічними. Те, що далі це затягнулось і переросло в такі форми, – оце вже було шкідливо. Тобто правда – це те, що де-факто є чи не одним із основних інструментів маніпулювання.
Розуміння того, що кожен з нас може бути жертвою, що до кожного з нас можна знайти певний інструмент, – це вже дуже велика справа, яка чи не перша стимулює нас далі знаходити інструменти, робити якісь певні обмеження. Тому що в цей перехідний етап, про який я говорила, коли ще правил немає, де-факто нас найбільше рятує відсутність самовпевненості і дуже базові правила. От зараз іде процес переговорів. Ні я, ні ви, ні, по-чесному, навіть ті люди, які в переговорному процесі, не знають, коли і чим це закінчиться. І це – нормально. Але від цього залежить наше з вами життя, і це стимулює нас постійно шукати інформацію про те, а що ж там відбувається. І хто цим користується? Маніпулятори, ворог, політичні опоненти і дуже довгий перелік людей. І ось тут важливе правило: визнати, що ти щось не знаєш, і це нормально.
Зараз ми на якомусь етапі переосмислення, як потрібно працювати з цими шкідливими впливами. Тому що це вже не дезінформація. Це вже не фейки. Це вже не просто маніпуляція. Це вже не просто ШІ. Це наскільки великий комплекс впливів, який потребує зміни підходів, як з цим працювати. Коли з’явилися літаки чи автомобілі, не було такої техніки безпеки, яка є зараз. Вона напрацьовувалася, і напрацьовувалася через буквально смерті, кров людей.
«Українському народу випала ця жорстка і страшна честь — своєю кров’ю написати правила інформаційної безпеки».
ШІ — це частина нашої нової реальності
ОК: Гарний приклад з літаками й автомобілями. Мені, коли я говорю про те, що нас обманюють за допомогою штучного інтелекту, частина моїх знайомих, особливо молодшого покоління (так звані зумери), кажуть: “А що в цьому страшного? Це звичайний технологічний прогрес. Колись люди так само боялися потягів і літаків, які з’явилися. А зараз ми ними користуємося. Чому ви переживаєте за це?” То чи варто взагалі переживати?
ОМ: Ви знаєте, тут немає однозначної відповіді. Тому що я зустрічала багато людей, які після моїх лекцій виходили з великими очима і казали: “Ми тепер хочемо поїхати в ліс і там жити без води, без світла, без нічого, щоб не було ніякої цивілізації”. Тут вкрай треба розуміти реальність. ШІ – це частина нашої нової реальності. Наше завдання – не боятися його, а розуміти. Якщо ми розуміємо, що зараз є можливість створити дуже правдоподібні відео буквально кожним, хто має смартфон… Це ж не питання тільки того, що саме в цих відео. Це питання кількості відео, які нас оточують. Ми маємо розуміти, що якщо ми перед собою бачимо емоційне відео, то це вже знак оклику.
ОК: Так а всі відео зараз емоційні.
ОМ: Ось. І тоді ми маємо для себе відповідати на запитання, що ми з цим робимо. Ми обмежуємо соціальні мережі, чи дивимося їх тільки тоді, коли стовідсотково адекватно сприймаємо реальність. Або взагалі нічого не дивимося. Тобто кожен має підібрати для себе прийнятну модель безпеки. Але хтось скаже: “Ні, ми будемо все дивитися”. І це теж ок. Тоді ми маємо цим людям сказати: окей, ви дивитеся в соціальних мережах відео, це нормально, це частина нашої діяльності, але, будь ласка, сходіть спочатку на «Українську правду», «Бабель» тощо, почитайте новини. І це буде те саме головне правило. Під кожен тип споживання інформації потрібно підібрати правила безпеки. От як ми йдемо готуємось до перельоту. Нас спочатку ведуть на паспортний контроль, потім ми проходимо всі лінії захисту. Потім нас перевіряють, забирають воду і т.д. І ще в сам літак коли ми заходимо, сек’юріті дивиться, чи всі ми адекватні. Можливо, ми навіть більшість цих правил не розуміємо.
ОК: Але всі розуміють, що літаки – це підвищена небезпека. А тут просто якесь відео в смартфоні.
ОМ: Оце – ключовий момент. Ми ще років сто тому не розуміли, що літаки – небезпека. Або, навпаки, всі думали, що це хронічна небезпека, якісь літаючі пташки.
ОК: То для того, щоб виробились правила, мають статися перші жертви?
ОМ: Жертви є. Просто ми їх не оцінюємо. От зараз дуже така стрімка дискусія стосовно того, чи потрібно дітям і підліткам взагалі давати смартфони. Звідки вона взялася? Тому що з’явилися перші дослідження, які показали конкретні наслідки і показали це на дітях.
ОК: Є вже перші країни, які обмежили користування соцмережами для дітей.
ОМ: Так. Наприклад, Австралія обмежила. А, наприклад, Європа ще коливається. І це нормально. Це абсолютно характерні риси для перехідного етапу. Ми не можемо на 100% досягти безпеки в інтернеті. От чому був такий суттєвий перекіс з цим розвінчуванням фейків? З одного боку, це дуже класний інструмент для журналістів, комунікаційників, де правда, де брехня і т.д.
ОК: Штучного інтелекту?
ОМ: Взагалі. З іншого боку, якщо ми тільки в цю панацею впираємося, то ми не бачимо купи інших загроз, які значно більші. Ми бачимо щось, що викликає у нас емоцію, а ми знаємо, що штучний інтелект на це дуже класно працює, бо те, що блогерам, журналістам, маніпуляторам потрібно було розказувати раніше за 10 хвилин, а перед цим ще годину, штучний інтелект робить за 10 секунд. Він стискає цю інформацію, навчений всіма психологічними працями, соціологічними тощо. Є загроза того, що ми побачимо щось, що буде виглядати дуже гарно, але буде нести для нас небезпеку.
Пише мені одна підписниця, напевно, психологиня. Надсилає згенероване штучним інтелектом відео, яке голосом Фрейда розказує про психологію. Мене питає: “Це фейкове джерело?” Я кажу: “Для чого ви це питаєте?” Вона: “А чи можу я вивчати психологію на цьому джерелі?” “Ні”. “Чому?” “Тому що ви не можете перевірити, хто його створив”, - відповідаю. Тобто, якщо вам хтось анонімний, а як правило ці джерела анонімні, створені штучним інтелектом, говорить щось, що вам потрібно, – це саме та емоція. Вас знайшли тому, що ви вчите психологію. І от щось анонімне в гарній упаковці дає вам знання про психологію. Чи можете ви вірити цій інформації? Ні, не можете.
ОК: “В інтернеті сказали”.
ОМ: Так.
Проблема діпфейків та захисту особистості
ОК: З забороною для дітей соціальних мереж і обмеженнями користування смартфоном, мабуть, зрозуміло, бо йдеться про ментальне здоров’я, про інтелектуальний розвиток. А є ще такий вид використання штучного інтелекту, як генерування голосу і зображень, коли це використовують для обману або дискредитації певних людей. Я знаю випадок з моєї батьківщини. Коли Харківщина була окупована, росіяни взяли в полон одного чоловіка, який був колишнім військомом. І йому росіяни вмикали аудіофайли начебто з голосом його доньки, яка його про щось благала. Його, звичайно, це дуже тригерило. Він зрозумів, що це не його донька тільки по одному-єдиному слову, в якому неправильно був поставлений наголос. Він зрозумів, що його донька так би не сказала. Інший приклад. Ми всі пам’ятаємо, коли дзвонили якісь незрозумілі люди і казали: “мама, я у поліції, врятуй мене”. Люди розуміли, що це не може бути донька чи син, бо ось він тут вдома. Зараз також багато є в інтернеті відео відомих людей, політиків, які, здавалося б, не можуть казати те, що вони кажуть в цих відео. Голос абсолютно ідентичний і зображення абсолютно ідентичне. Якщо подивитися на цю ситуацію очима того, чиє зображення чи чий голос вкрадені по суті? Як цим людям можна захистити себе? Бо це, мабуть, дуже неприємно – побачити себе в комічному вигляді або з брехливими заявами.
ОМ: Зараз – ніяк. Це чесна відповідь. Але індустрія, яка в тому числі займається штучним інтелектом, працює над тим, щоб робити таку ідентифікацію. Тобто це ж проблема дуже комплексна. Це проблема, яка стоїть перед банківською сферою; це проблема шахрайства, це проблема політична і т.д. Також і економічна – тому що вийде якийсь СЕО величезної компанії, щось скаже, і біржа впаде, купа людей втратять гроші чи навпаки їх зароблять. Тому зараз працюють над тим, щоб з’явився ідентифікатор того, як це перевіряти. Цих продуктів, наскільки я знаю, зараз немає. І ті ж стартапи OpenAI і т.д. працюють над тим, щоб якось в цьому напрямку рухатися.
Що ми можемо робити на даному рівні? Якщо це якийсь відомий політик чи відома людина, і ми побачили заяву, яка нас дивує, ми заходимо на офіційні ресурси цієї людини і дивимося, чи там є ця інформація. Якщо її немає, ми пишемо в коментарях і просимо підтвердити чи спростувати. Буквально недавній кейс, коли в мережі з’явилося аудіоповідомлення однієї відомої блогерки, де вона говорила про те, що начебто здійснює платежі з росією і білоруссю. Перше враження – це правда. Тому що це, по-перше, було дуже схоже на її голос. По-друге, це те, що і так було вже відомо, просто до того було менше доказів. І тільки розгорнувши завдяки журналістській роботі цю стрічку до кінця, зрозумівши, хто цю інформацію взяв, звідки, побачивши записи екранів і т.д., можна було зробити висновок, це правда чи це неправда.
Тому ось цієї журналістської роботи ніхто не відміняв. Вона не завжди можлива, але є випадки, де можлива. І ця перевірка має здійснюватися фахівцями. Тому що людина, яка не є комунікаційником і медійником, цього не зробить. Якщо ми говоримо про побутові випадки на кшталт шахрайств, коли телефонують голосом рідного чи близького, то, якщо є можливість, треба домовитися про якісь кодові слова на примітивному рівні. Це може бути запитання, про яке можете знати лише ви, чи щось, про що ви домовились, аби людина сказала відповідь на нього або ні. Стосовно полонених і шахрайства, на жаль, голос – це поширений спосіб маніпулювання. Він не новий. Раніше також могли телефонувати і голос імітувати. Зараз це робиться за допомогою штучного інтелекту. Це вже питання підготовки конкретної людини і розуміння, що ним чи нею в даний момент точно маніпулюють.
Регулювання ШІ-контенту: чи можливо це?
ОК: Якщо все-таки подумати в напрямі регулювання використання штучного інтелекту для генерації зображень, голосу чи відео. Якщо зайти на YouTube-канали, які поширюють такі відео, там в описі каналу зазвичай зазначено, що відео згенеровано штучним інтелектом або містить синтетичний контент. Але, звичайно, небагато людей зайде читати ці описи. Як ви взагалі вважаєте, маркування чи якісь інші способи змусити виробників контенту давати зрозуміти, що це штучний інтелект, має сенс? Чи це не спрацює?
ОМ: Я вам наведу попередню статистику, яку ми вже маємо щодо спроб щось маркувати. Коли у нас розпочалася пандемія, соціальні мережі в хаотичному намаганні хоч якось справитися з лавиною фейків, почали маркувати контент, який є маніпулятивним, фейковим і т.д. Потім, коли Трамп прийшов до влади, рік тому, Марк Цукерберг виступив із заявою, що вони припинили цю програму. А насправді ефективність просто була в межах (я зараз боюся помилитися, але чи 11%, чи 16%). Тобто ось цей штучний інтелект, який вчився на даних, які давали живі фактчекери, з 2020-го по 2025 рік, зумів навчитися настістільки стрімко, щоб його відрізняв тільки ось цей відсоток.
Тому насправді це дуже відкрите питання з регулюванням. Чому? Тому що де-факто має працювати інший штучний інтелект, який це все маркуватиме. І вже на основі того, що він вміє, розробляється законодавча база, і він в ній як один з інструментів. Але завжди, коли з’являється щось нове – так було з соціальними мережами, так власне зараз є зі штучним інтелектом, – інструменти генерування чогось поганого працюють набагато ефективніше, ніж ті, які спрямовані на його розпізнавання.
ОК: Ви про чиї спроби говорите, компаній чи держав?
ОМ: Євросоюзу. Компанії, відверто, в цьому не дуже зацікавлені.
ОК: Я читала, що за даними досліджень у минулому році в YouTube більш ніж половина контенту, який пропонується новим користувачам, вже створено не людиною.
ОМ: Цілком може бути. Я не бачила цих даних. Спроби є, і вони будуть поглиблюватися. І врешті-решт ми прийдемо до того, що напрацюється якась система. Але зараз, якщо ми говоримо про найближчі роки, об’єктивно цей контент не можна буде розділяти. Тому що цей інструмент штучного інтелекту може використовуватися як на благо, так і навпаки. І тут ключове – це не вміння. Ключове – зрозуміти, що стоїть за цим контентом і чи воно корисне чи шкідливе. А власне штучний інтелект і компанії-розробники цього не можуть робити. А через рік у нас все буде з використанням штучного інтелекту.
ОК: Як ви думаєте, якщо я як споживач, наприклад, слухаючи новини по радіо, хотіла би чути, щоб ці новини були озвучені живою людиною, а вони зараз дуже часто озвучені штучним інтелектом, – це моє законне право чи це вже буде моя забаганка?
ОМ: Це ваша забаганка. От якраз цей момент у мене не викликає сумніву: що якщо ви захочете їсти якісні органічні продукти, ви будете за них платити більше. Так само.
Національні особливості: наша сила та вразливість
ОК: Оксано, як ви думаєте, на основі наших національних особливостей що є нашою перевагою в протистоянні цій навалі дезінформації, фейків, маніпуляцій, а що – нашою вразливістю?
ОМ: Це дуже складне питання. Я не хочу давати якусь попсову відповідь. Ніхто не знає, за рахунок чого ми стоїмо. Тому що ніхто не досліджував людей в тих обставинах, в яких ми зараз знаходимося. Тому що ми з вами перерахували цифрову еру, штучний інтелект, втому, страх, цифрову, гібридну війну. Ніхто в такій комбінації не жив. І я думаю, що тут тільки гіпотези можливі. Ми вже дуже чітко розрізняємо базисну російську пропаганду, яку, на жаль, ні Європа, ні Штати не розрізняють. От зараз візьміть навіть питання тепла. Українці, як би у них холодно не було вдома, чітко розрізняють, де Кличко винен, де влада центральна не підготувалася, а де росіяни — і вони ключові, хто завдав цього всього лиха. Це не означає, що ми хвалимо владу. Ми їм дамо по голові своїми методами. Але це означає, що ми чітко можемо це розрізняти.
ОК: Ця наша базова підготовка краща, ніж, наприклад, у німців чи французька?
ОМ: Апріорі. Тому що ми імунітет випрацювали. Тобто ми, на жаль, його напрацювали через мільйони ось таких повідомлень, які ми переварили. Але водночас ми як українці реагуємо через дуже багато наших особливостей на всі ці інформаційні вкиди. Але ми на них реагуємо, а не вони нас ламають. Тому що мета кожної інформаційної операції – це змінити нашу поведінку. На нас це емоційно діє. Ми можемо створювати срачі в соціальних мережах. Ми можемо переходити на емоції і т.д. Але як тільки стається безпосередня загроза, ми все залишаємо за дверима, об’єднуємося і працюємо на ту ціль, яка потрібна.
Ми визнаємо, що ми не маємо чіткого імунітету, де правда, де фейк. Тому ми будемо використовувати базові правила. Перше – це йти в хороші медіа по інформацію. Друге – бодай від анонімних каналів відписуватися. Це те саме, що ми, якщо чуємо сирену, дивимося, що саме летить, – це перший скринінг. Якщо летить щось таке, що треба йти в метро, в сховище, то ми йдемо. Потрібне просто розуміння реальності, це ключове.
ОК: І на завершення. Кількома реченнями. Як ви думаєте, що можна вважати успіхом у нашій побудові цієї стійкості до інформаційних загроз, до маніпуляцій? Якими мають стати українці чи як вони мають сприймати це, щоб ми могли сказати, що українці – це нація, яка ще й навчилася протидіяти інформаційним загрозам?
ОМ: Я вже не пам’ятаю, хто з вчених сформував поняття інформованої нації. Це коли людина не знає все і не думає, що вона знає все чи має знати все. Натомість вона знає, де знайти джерела, які є достатньо експертними, правдивими для того, щоб там отримати інформацію. Тобто це та частина критичного мислення, яка у нас вмикає сумнів в усьому, звичка все піддавати сумніву, тобто не йти в якусь радикалізовану позицію, а казати: окей, якщо я не є електриком, мені потрібно зрозуміти, що мені придбати для того, щоб забезпечити енергоефективність чи енергонезалежність своєї квартири, я за такими-то критеріями знайду експертів, відберу спеціаліста і т.д. Тобто це напрацьовується. Але оскільки постійно наші вороги працюють в протилежному напрямку, постійно нам підсовують фейкових експертів, які виглядають як реальні експерти, то це довгий час доводиться формувати. Тому якщо ми зробимо перший крок, якщо у нас будуть жити далі незалежні медіа, якщо у них буде збільшуватися аудиторія і буде, навпаки, зменшуватися аудиторія в анонімних джерелах, – оце для мене буде маркерами першими того, що ми рухаємося в правильному напрямку, і буде результат іншого рівня.
ОК: Оксано, дуже дякую вам за цю розмову.
ОМ: Навзаєм.
ОК: Я нагадую, що у нас у гостях була засновниця проєкту інформаційної гігієни «Як не стати овочем» Оксана Мороз. Це був подкаст проєкту OpenReality. Будьте з нами!







