go-back
Повернутися назад
Публікації
Як працюють цифрові армії – інтерв'ю про ботоферми та маніпуляції з експертом Романом Осадчуком. Проєкт Open Reality
16.03.26

WhatsApp Image 2026-03-16 at 18.07.33.jpeg

З початку повномасштабного вторгнення СБУ ліквідувала сотні ботоферм. Одна середня мережа може керувати від 50 000 до 100 000 акаунтів. Раніше ботами керували люди на «клік-фермах», тепер це алгоритми. Один оператор за допомогою ШІ-чатботів може вести тисячі дискусій одночасно. 90% роботи сучасних ботоферм спрямовано на розхитування суспільних тем (мобілізація, енергетика, релігія).

У проєкті про інформаційну безпеку Open Reality, започаткованому Фондом Open Ukraine, вчимося розрізняти фейки, формувати навички здорового сумніву та розуміння того, як працюють маніпуляції.

Тема нового випуску проєкту – боти і тролі. Ви точно бачили їх у коментарях: вони першими пишуть під новинами про відключення світла, починають хейт у соцмережах і завжди знають «всю правду, яку від нас приховують». Раніше ми називали їх просто «ботами», уявляючи людину, яка за гроші пише коментарі. Сьогодні ж це цілі «заводи» – ботоферми.

Хто стоїть за цими арміями пустих профілів? Як за 5 секунд зрозуміти, що ви сперечаєтесь не з людиною, а з алгоритмом? І головне – як їм вдається маніпулювати нашими емоціями?

Про це говоримо з Романом Осадчуком – директором з розвідки загроз у компанії LetsData, викладачем Києво-Могилянської академії та дослідником у Digital Forensic Research Lab.

WhatsApp Image 2026-03-16 at 14.47.26 (5).jpeg

Давайте почнемо з анатомії ботоферми. Як виглядає сучасна ботоферма – це контакт-центр з купою телефонів чи хмарний сервер десь за кордоном?

Може бути все, що завгодно. Наприклад, якщо ви подивитеся на пресрелізи СБУ, то можете побачити, що це зазвичай якесь напівпідвальне приміщення, в якому стоять стеки під’єднаних разом сім-карток, які красиво «пілікають» зеленим кольором. Але насправді це купа підключених сім-карт, за допомогою яких активуються акаунти в соцмережах. Це можуть бути і куплені акаунти. Тобто, коли ми говоримо про ботоферму, ми не завжди говоримо про те, що якась людина собі зробила цю ботоферму, купивши багато сім-карток. Ні. Купити такі акаунти можна, в принципі, в хмарі. Тобто, це хтось зробив за кордоном, наприклад. У нас буває дуже багато прикладів в Україні, коли деякі сторінки були створені у В’єтнамі, Індонезії, і вони публікують новини про Україну, наприклад, у Facebook. Це означає, що або дійсно зловмисники знаходяться там, або просто хтось придбав сторінку, яка була зареєстрована на користувача в тій країні. Тобто, якщо підсумувати, так, дійсно, як ви сказали, має бути якесь певне технічне оснащення для того, щоб під’єднати купу сім-карток, зареєструвати багато акаунтів. Тому що яка логіка ботоферми? Для того, щоб поширювати багато повідомлень, треба створити спочатку ті акаунти. Щоб їх створити, потрібні сім-картки з номерами телефонів. Як їх дістати – це вже зловмисники придумують: або десь придбати, або зробити це самим.

Скільки років цьому явищу?

Багато. Я думаю, що про це вперше активно почали говорити під час президентських виборів у Сполучених Штатах 2016 року. Там віднайшли зв’язки з «Агентством інтернет-досліджень» (IRA – Internet Research Agency), пов’язаним з пригожиним (був керівником російської «фабрики тролів», проти якої уряд США запровадив санкції за втручання у вибори, та головою пвк «вагнер», – ред.). Це було перше велике відкриття для всіх, що так можна робити. Це, напевно, було на початках ще й раніше, десь у 2012-2013 році. Але щоб активно, щоб був прямо такий супербум, то можна казати якраз-таки про 2016 рік.

Зараз ера штучного інтелекту, з’явилося дуже багато інструментів, той же ChatGPT. Чи використовують їх ботоферми?

Це хороше запитання. Штучний інтелект – дуже широке поняття, яке включає багато речей. Це не тільки великі мовні моделі типу ChatGPT, Claude, Gemini тощо. Є ще багато інших застосувань, які допомагають в автоматизації. Насправді для того, щоб створювати цю велику інфраструктуру, потрібна певна автоматизація. Я думаю, ШІ може допомагати з тим, щоб писати для цього програмний код, управляти цим всім та створювати контент. Раніше, коли я досліджував коментарі від російських ботів, це були погані карикатури російських ілюстраторів. Чому я кажу про погані? Тому що в них був свій характерний стиль, і він був дуже поганий та впізнаваний. Тобто було очевидно, що карикатурист, який сидить на зарплаті, малює військово-політичне керівництво України під певним кутом. Зараз вони просто якусь історію генерують у коментарях. З останнього я бачив дуже багато золотих унітазів.

Найсвіжіший приклад – публікація про те, що Європарламент підписав допомогу Україні. І от там збирається група акаунтів, які публікують згенеровані відео з президентом Володимиром Зеленським та золотими унітазами, з тим, що начебто пану президенту стає погано, і очільник Франції Еммануель Макрон намагається йому допомогти. Коротше кажучи, це згенерований контент, який не має жодного зв’язку з реальністю. Він називається AI Slop. Але його створюють, публікують, він викликає якийсь емоційний тригер. І люди на нього реагують і ведуться.

Але частіше ж вони генерують не картинки, а слова. Слова образливі, хейтерські, з дезінформацією.

Раніше відбувалося це яким чином? Був певний пул меседжів. Умовно кажучи, сиділа якась людина десь на росії, в неї був контент-план. Вона придумувала, що їй потрібно відпрацювати цю тему. Наприклад, критика військово-політичного керівництва України. От вона бачить, що отака остання тема, треба придумати кілька меседжів. І видно, як акаунти просто по черзі запускають ці меседжі без прив’язки до публікації. Що відбувається зараз? Скоріш за все, вони використовують певні моделі для того, щоб цей текст переписувати. Тобто, повідомлення в ядрі те саме, але виглядає воно по-іншому. Слова інші, але повідомлення одне й те саме. Але це дуже важко побачити. Чому? Тому що зазвичай коментарі суперкороткі. А для того, щоб зрозуміти, що є якісь зв’язки в тексті, що він був штучно згенерований, потрібно трошки більше тексту.

Що потрібно для розпізнавання бота? Як ви це робите? Ви читаєте, що пише цей акаунт, і стає зрозуміло, чи треба все-таки зайти на акаунт і подивитися сторінку?

WhatsApp Image 2026-03-16 at 14.47.26.jpeg

Треба зробити комбінацію речей. Є так зване визначення Facebook – CIB або coordinated inauthentic behavior («координована неавтентична поведінка»). Координована – бо є якась координація акаунтів. Неавтентична – хтось видає себе за когось іншого. Умовно кажучи, сторінка, яка називається «Новини України», адмініструється людьми з Вірменії.

А як зрозуміти, що вона координується людьми з Вірменії?

Зараз ми до цього повернемося. У деяких соцмережах це можна подивитися. В Facebook є так звана «прозорість сторінки». Зараз вона дуже хитро знаходиться. Ви коли відкриваєте сторінку, у вас такий короткий підпис є, і там буває або digital creator, або якась назва, що це за сторінка. Клікаємо на «прозорість сторінки», і там є повідомлення про те, з якої країни вона адмініструється. І деякі сторінки, які мають сотні тисяч підписників, публікують новини про Україну, але насправді люди там можуть бути з В’єтнаму, Індонезії, Вірменії. У Х (колишньому Twitter), наприклад, необхідно натиснути на дату створення акаунту, і там є інформація, через що людина зареєструвалася, і поточна локація. Але якщо людина сидить з VPN, там буде показуватися прапорець, який говорить, що ми не впевнені з приводу локації. Тому локацію можна побачити не завжди. У Facebook, коли ми заходимо на персональний акаунт, локації не можна побачити, тому що це захищені персональні дані. Але якщо це публічна сторінка, то цю інформацію подивитися можна.

Що частіше використовують, фейкові сторінки чи приватні акаунти?

Сторінки використовують для того, щоб закидати якийсь контент. Наприклад, кампанія, яка називається Doppelganger, вона ж «Двійник». Там створюються сторінки, які публікують образливу історію і посилання. Коли люди клікають на цей лінк, вони потрапляють на копію, наприклад, УНІАН. Сайт виглядає абсолютно як УНІАН – один в один. Проблема в тому, що цієї статті на УНІАН ніколи не було. І таке робили в багатьох країнах: La Repubblica в Італії, Fox News у Сполучених Штатах.

WhatsApp Image 2026-03-16 at 14.47.26 (6).jpeg

Це масштабно. Скажіть, будь ласка, про яку вартість орієнтовно йдеться?

Важко сказати конкретні цифри. Я на стороні добра, я ніколи цим не займався професійно.

Але ж досліджували це питання.

Так, досліджували. Я скажу так, що ще років вісім тому можна було тисячами придбати лайки або якісь коментарі за кілька сотень доларів. Думаю, зараз це коштує ще дешевше. Було дослідження злитих даних росіян, яке називається «Vulcan Files». У них був софт для створення акаунтів по одній кнопці.

Це робили в якійсь певній соцмережі? Чи в будь-якій?

Тоді це було конкретно, здається, про соцмережу X. Але якщо створили для однієї, то не думаю, що є проблема масштабувати на інші. З того, що ми бачимо зараз, дуже часто вони використовують інфраструктуру кіберзлочинців, які займаються фродом (шахрайські дії в інтернеті, спрямовані на крадіжку коштів, персональних даних або накрутку показників за допомогою ботів чи маніпуляцій; найчастіше зустрічається в онлайн-рекламі та банкінгу, завдаючи бізнесу мільярдних збитків, – ред.) та скамом (інтернет-шахрайство, спрямоване на виманювання грошей, особистих даних або доступу до акаунтів, – ред.). Одні й ті самі сторінки використовуються і для того, щоб запускати якісь наративи, і щоб рекламувати, наприклад, онлайн-казино.

Чи можете ви виокремити топ тем, на яких зараз найбільше маніпулюють боти в Україні?

Найголовніша річ – це «рязанський цукор».

Що це?

От бачите, ви не знаєте. Багато людей з моєї команди теж не в курсі, що це таке. «Рязанський цукор» – це теорія, згідно з якою фсб спеціально підірвала багатоповерхівки в росії у 1999 році, щоб спровокувати Другу Чеченську війну. В одній з багатоповерхівок сусіди побачили, як заносять мішки. Поліція дізналася, що це був вибуховий пристрій, але потім приїхала фсб і сказала, що це був насправді цукор. Хтось це згадав і вирішив в коментарях писати, що події в Україні – це нібито спроба українського уряду зробити false flag attack, «атаку під фальшивим прапором», щоб закрутити гайки. Друга історія – це критика влади: влада нібито не хоче закінчувати війну, бо «на ній наживається». Це безсмертна класика дезінформації.

Я бачу дуже багато сварок: ті, хто виїхали, і ті, хто залишився. Ви щось таке помічаєте?

Задача росіян – розштовхати людей, поляризувати. Це «розділяй і володарюй» по-новому. Росіяни використовують і старі розколи про «три сорти українців», які придумали російські політтехнологи ще для Януковича у 2004 році. Проблеми зі світлом – дуже велика тема. В Одесі немає світла, бо все світло нібито у Львові. А для львів’ян – навпаки.

А наратив про те, що світла немає, тому що його продали за кордон?

Так, завжди. І тема з ТЦК. Якщо ви відкриєте коментарі під будь-яким постом будь-якого ТЦК – ви відкриєте портал у пекло. Проблема в тому, що боти почали краще мімікрувати під реальних критичних людей.

WhatsApp Image 2026-03-16 at 14.48.23 (2).jpeg

Чи може коментар, який лайкнула сотня ботів, вплинути на думку людей?

Це так званий інформаційний каскад. Коли поруч є дві кав’ярні: в одній є люди, в іншій немає, – то ви підете туди, де є люди, бо це знак якості. Так само з коментарями. Якщо ми бачимо багато реакцій, підсвідомо вважаємо цю інформацію важливою. Це працює. Але є ще тролі. Це реальна людина, яка пише, щоб спровокувати. Тобто, ботом вважається акаунт, який запрограмований та реагує на ключове слово, а троль – це людина на зарплаті, яка відкриває ноутбук і просто пише коментар.

Тобто на аватарці квіточки, але це живі люди, які за гроші ведуть такі акаунти?

Так. Є злиті документи росіян – агенція Social Design Agency. У них є ексель-файл: вони вставляють лінк публікації, пишуть коментар, роблять скріншот для звіту. Їм треба заповнити 200 коментарів на день. Це їхня робота. На окупованих територіях у них явно покращилася українська мова, або через ШІ-перекладачі, або через залучення місцевих.

Чому ми досі ведемося на ботів?

У нас є така якість – антропоморфізм. Ми надаємо рис живого всьому: хмаринкам, техніці... В інтернеті ми звикли, що ті, хто коментують, – це люди. Перша реакція – це дійсно людина, а не автоматизований коментар. Другий момент – емоційна реакція. Якщо вас щось дуже сильно тригерить — зупиніться. Воно для цього було створене.

Як же втриматися від дискусії?

WhatsApp Image 2026-03-16 at 14.47.26 (4).jpeg

Є вираз: «Не годуй троля». Коли ви вступаєте в дискусію, ви просто допомагаєте людині швидше заповнити ексель-табличку і отримати бонуси. Ви піднімаєте оригінальну публікацію в алгоритмах.

Чому соцмережі так повільно реагують?

Вони реагують, але мільйони акаунтів створюються щодня. Це перегони озброєнь, гра в кота і мишу. Зловмисники адаптуються швидше, ніж платформи встигають створювати системи захисту без фальшивих блокувань реальних людей.

Якими будуть ваші головні рекомендації для користувачів?

Критично сприймайте інформацію. Якщо вас провокують – просто не коментуйте.

Поділитись
© Благодійний фонд Арсенія Яценюка «Відкрий Україну»
locationУкраїна, Kиїв, 01001
ksf-logo
facebooktwitteryoutubeinstagram
open-logo
open-Ukraine
Фонд Арсенія Яценюка
© Благодійний фонд Арсенія Яценюка «Відкрий Україну»
ssl-protected