Русский военный корабль, иди нах*й.
Пожертвувати на армію
×
Упс!
Не вдала спроба:(
Будь ласка, спробуйте ще раз.
preview
Наталія Миронова
Наталія Миронова Relationship Manager at SPEKA
2 серпня 2022 9 хвилин читання

Промодерувати не можна пропустити. Як Meta бореться з російською дезінформацією у соцмережах

Війна в Україні: як соцмережі боряться з російською дезинформацією. Війна в Україні: як соцмережі боряться з російською дезинформацією.

Повномасштабна війна росії проти України — це одночасно і перша у світі кібервійна, де соцмережі стали зброєю не менш руйнівною, ніж гаубиці та РСЗВ. Саме у Facebook, Twitter та Instagram люди діляться інформацією про війну, перебіг бойових дій і не тільки, а отже, зростає  кількість дезінформації. Facebook та Instagram повідомили про дедалі більшу активність з поширення дезінформації, повʼязаної з вторгненням росії в Україну. Цікаво, що поширюють її не лише в Україні чи росії, а по всьому світу, зокрема, у Грузії, Китаї, на африканському континенті і навіть в Австралії

Наскільки ефективно соцмережі дають раду ворожому контенту, розповідаємо у новому матеріалі проєкту SPEKcheck

На практиці: як Meta модерує контент

Meta вже не вперше жорстко критикують за роль, яку Facebook відіграє у поширенні дезінформації світом: оберіть будь-які вибори або конфлікт, і ви завиграшки знайдете історію про те, як боти (зазвичай російські) маніпулювали громадською думкою через платформу. 

Причина — неефективна й повільна політика модерації контенту. Наприклад, доказів, що контент є неправдивим або що сторінка регулярно поширює дезінформацію, недостатньо, щоб Facebook їх видалив. Правила спільноти Facebook порушують лише ті дописи, які платформа визнала «шкідливими».

Але навіть якщо допис визнали шкідливим, це не означає його автоматичне видалення. Це навіть не гарантує бан сторінки, яка займається дезінформацією: її можуть покарати, але не видалити, скажімо, обмежити монетизацію або прибрати з рекомендацій. У крайньому разі Facebook буде попереджати користувачів, що обліковий запис часто поширює дезінформацію.

Зазвичай сторінки, які розміщують дезінформацію, публікують дуже багато контенту, тому багато помилкових тверджень та відео залишаються поза увагою.

Після вторгнення росії в Україну компанія Meta заявила, що створила цілодобову групу спеціальних операцій, до якої увійшли співробітники, які володіють російською та українською мовами. Вона також оновила свої продукти, щоб допомогти громадянському населенню під час війни, зокрема функції, що допомагають українцям знайти перевірену інформацію щодо пошуку житла та допомоги біженцям.

У березні 2022 року Facebook також оголосив про видалення мережі акаунтів, які діяли з росії та України та розганяли дезінформацію. 

Представник Meta Айобамі Олугбеміга підтвердила, що під час вторгнення компанія «надавала значні ресурси фахівцям з перевірки фактів, які працюють у Східній Європі, щоб допомогти уповільнити поширення дезінформації про війну в Україні та гарантувати безпеку».

Після початку повномасштабної війни Facebook також заборонив російським державним ЗМІ розміщувати рекламу на платформі. 

Метушня та хаос: як змінювалися правила соцмереж під час війни

Meta тимчасово припинила перевіряти, чи справді її співробітники, які стежать за постами у Facebook та Instagram з росії та України, дотримуються  правил щодо вмісту. За даними The New York Times, це сталося тому, що працівники не встигали за зміною правил щодо того, які види постів про війну в Україні дозволені.

Meta внесла понад пів дюжини змін у свою контентну політику відтоді, як росія вторглася в Україну. В результаті виникла внутрішня плутанина, особливо серед модераторів контенту, які патрулюють Facebook та Instagram у пошуках текстів та зображень із погрозами, мовою ненависті та закликами до насильства. Іноді Меtа змінювала правила щодня.

Зокрема, Meta Platforms почала дозволяти користувачам Facebook та Instagram у деяких країнах закликати до насильства проти російських солдатів у контексті вторгнення в Україну. Можна навіть бажати смерті Володимиру Путіну або Олександру Лукашенку. У відповідь російська влада назвала діяльність Meta екстремістською. Незабаром після цього Meta змінила курс і заявила, що не дозволить своїм користувачам закликати бажати смерті очільникам країн.

Старший науковий співробітник Лабораторії цифрових криміналістичних досліджень Атлантичної ради Емерсон Т. Брукінг зазначив, що Meta зіткнулася з проблемою військового контенту.

«Зазвичай політика модерації контенту спрямована на обмеження контенту, що містить насильство. Але неможливо зробити вигляд, що війни немає».
пояснив він. 

Meta також зіткнулася зі скаргами співробітників на її контентну політику. Зокрема, їй закидають, що вона не вжила достатніх заходів проти Russia Today і Sputnik, доки не почалася повномасштабна війна. Співробітники поскаржилися, що саме Facebook допустив маніпуляції громадською думкою на своїй платформі у 2016 році, що дозволило росії вплинути на результат президентських виборів у США, і ці видання варто було заблокувати ще тоді. 

Хто ще модерує контент

Після появи хвилинного відео, знятого на вулицях Бучі, яку залишили російські війська, росія запустила у соцмережах нову хвилю дезінформації: російські акаунти стверджували, що відео — це постановка, аби попри докази перекласти провину на українські війська. 

Відділяти правду від фейків довелося зовнішнім оцінним центрам, як-от VoxUkraine та StopFake. Вони є членами Міжнародної мережі перевірки фактів, яка затверджує редакційні стандарти для організацій з перевірки фактів та керується Інститутом Пойнтера, некомерційною дослідницькою організацією.

Усі вони вивчають достовірні джерела новин, складають звіти та розвінчують дезінформацію. Коли такі зовнішні групи визначають, що повідомлення є помилковим, Facebook знижує його видимість у стрічці новин і прикріплює попереджувальний ярлик.

Згідно з оглядом Washington Post, до війни не було жодної групи, яка перевіряє факти на росії, і лише дві перевіряли контент в Україні. Наразі є вісім додаткових груп, які займаються дезінформацією у регіоні.

Чи ефективно Meta модерує контент

Однак усіх цих заходів досі недостатньо. Соцмережі продовжують погано модерувати одні пости й хибно видаляти інші. Зокрема, після загибелі на фронті активіста Романа Ратушного Facebook почав видаляти пости з його цитатою «Що більше росіян ми вб'ємо зараз, то менше росіян доведеться вбивати нашим дітям». 

Спочатку пост самого Ратушного видалив Twitter. Потім видаляти цитату також почав Facebook.

За словами заступника директора Центру демократії та верховенства права та члена Незалежної медійної ради Ігоря Розкладая, система бачить заклик вбивати і блокує його, бо не може розпізнати емоції і контекст. На його думку, цей кейс — ще один приклад того, що зараз соцмережі не можуть діяти за правилами мирного часу.

Meta на короткий час обмежила хештеги, зокрема #bucha та #buchamassacre у соцмережі Facebook. Instagram обмежував дописи з цими хештегами та пояснював це тим, що деякі учасники спільноти скаржилися на контент.

Facebook та Instagram дозволяють публікувати графічні матеріали та контент, що містить сцени насильства, якщо їх публікують задля підвищення поінформованості про можливі порушення прав людини. Однак соцмережі видаляють такі матеріали, якщо вони надто відверті або підносять страждання. Також компанія попереджає користувача, що світлини можуть містити сцени жорстокості або насильства, перш ніж користувач зможе їх побачити. 

Ймовірно, ті самі учасникі спільноти навчилися обходити правила соцмереж. Адже після того, як російські терористи скинули авіабомби на дитячу лікарню у Маріуполі, під удар потрапив профіль у Instagram українки Маріанни Підгурської, яка перебувала у пологовому будинку під час бомбардування. Знімок з нею облетів весь світ, однак російські тролі назвали фото постановочним, а Підгурську акторкою. Гнів переріс у цькування українки: російські користувачі запитували, скільки грошей вона отримала за зйомку у пологовому. 

За словами модератора Instagram, пости із цькуванням Підгурської «були мерзенними, здавалося, що ці публікації були кимось організовані». Однак багато хто з користувачів прямо не згадував про бомбардування, а отже, не порушував правила компанії. У цих випадках модератор нічого не міг зробити.

Чи дійсно все так погано

Критики кажуть, що кроків, які вживає Meta, недостатньо, щоб зупинити потік дезінформації.

Поширеність пов'язаної з росією пропаганди та дезінформації у соціальних мережах засвідчує, що потрібна більш агресивна відповідь, на думку Центру протидії цифровій ненависті, лондонської некомерційної організації, яка виступає за жорсткіше регулювання соцмереж. Дослідження, проведене групою, виявило численні згадки у Facebook дискредитованої російської теорії змови про біозброю.

«Meta не спроможна стримати основні дезінформаційні наративи, вигідні путінському режиму»
сказав Імран Ахмед, генеральний директор центру.

Meta заявила, що буде впроваджувати додаткові правила, щоб запобігти використанню її платформи на шкоду. Натаніель Глейшер, керівник відділу безпекової політики Meta, зазначив, що групи, які намагаються поширювати дезінформацію і пропаганду, також адаптують свою тактику відповідно до змін правил Facebook. 

0
Прокоментувати
Інші матеріали

«Народний супутник»: деталі угоди з ICEYE, технічні характеристики та нюанси роботи зі знімками

Роман Судольський 5 годин тому

Хто кого переможе в економічній війні та як довго ми зможемо прожити на рейках воєнної економіки. Головне з інтерв'ю з Володимиром Вахітовим (частина 2)

Олександр Тартачний 6 годин тому

Звідки українці отримують інформацію онлайн і кому довіряють. Опитування SPEKA

Юлія Даниленко 23 години тому

На росії оштрафували Twitch на $33 тис. за відео про Бучу

Ольга Кротовська 18 серпня 2022 19:23

Як треба було готуватися до війни і як на це впливає поведінкова економіка. Головне з інтерв'ю з Володимиром Вахітовим (частина 1)

Олександр Тартачний 18 серпня 2022 15:30