Зусилля YouTube щодо QAnon не працює

Ультраправа група QAnon останніми тижнями привертає увагу громадськості завдяки своїй здатності маневрувати платформами соціальних мереж для поширення дезінформації та створення вірусної уваги для своїх теорій змови.

Соціальні медіа-платформи, такі як Twitter і TikTok, вжили заходів проти групи після того, як давно спростовані теорії змови, такі як #PizzaGate, привернули нову увагу, заборонивши облікові записи та відключивши його популярні хештеги в пошуку. Хоча обидві платформи виявились благодатним грунтом для групи, QAnon роками процвітала на YouTube - незважаючи на інвестиції компанії в її модерацію.

Зараз відеоплатформа намагається зупинити появу відео QAnon у рекомендаціях користувачів, але тест Digital Trends виявив, що відео з теорією змови все ще з’являються на видному місці на домашній сторінці YouTube.

Прихильник QAnon з прапором Q Скотт Олсон / Getty Images

Прихильники QAnon вірять у низку спростованих теорій змови, що виникли на іміджевих дошках 4chan та 8chan в кінці 2016 року. Група вважає, що діяч на ім'я Q, який претендує на участь в адміністрації Трампа, розміщує депеші про війну президента Дональда Трампа. проти сюжету “глибокого стану”. Група спостерігає значне зростання на YouTube з 2016 року, оскільки алгоритм, заснований на взаємодії, просуває відео QAnon.

"QAnon спочатку захопив тягу на YouTube", - сказав Уілл Партін, аналітик з Науково-дослідного інституту даних і суспільства, який вивчає групу з 2017 року. "Її підхопили ютубери, які справді дали змову, і як результат , дійсно поширив це і зробив роботу, пов’язавши його з іншими речами, які вже були в повітрі »серед консерваторів.

"Ви не можете перешкодити комусь активно шукати це"

Завдяки природі самого YouTube, платформа виявилася головним місцем, де процвітали довгоформатні, псевдодокументальні фільми та ток-шоу, що розшифровують підказки або "панірувальні сухарі", випущені "Q". Ті, хто цікавиться теоріями QAnon, можуть легко знайти інших користувачів, які рекомендують додаткові відеоролики в розділі коментарів або за допомогою рекомендаційних алгоритмів YouTube - функції, яка потрапила під критику критиків як простий спосіб "радикалізації" глядачів.

Але тепер, якщо ви введете “QAnon” у рядок пошуку YouTube, на вашому екрані з’являться “помітні джерела авторитетних джерел”, таких як новинні організації та експерти - частина плану YouTube щодо піднесення фактичного вмісту для боротьби з дезінформацією. YouTube також почав розміщувати текстові поля та інформаційні панелі, що посилаються на сторонні джерела. Digital Trends виявили, що YouTube надає посилання на статтю Вікіпедії про QAnon під відповідними відео.

YouTube

YouTube заявив, що, впровадивши в січні нову політику модерації вмісту, кількість переглядів вмісту QAnon, отриманого завдяки рекомендаціям відео, зменшилася на 70%. Оскільки YouTube є сайтом відеоплатформи, а не сайтом соціальних мереж, модерація здійснюється на основі відео-відео, а не за рахунок облікового запису. За словами представника YouTube, системи платформи були скориговані для зниження рейтингу вмісту QAnon на бічній панелі рекомендацій, навіть якщо ви переглядаєте подібні відео.

Однак Digital Trends виявили, що після перегляду на платформі півдюжини відеозаписів, пов’язаних з QAnon, YouTube розмістив принаймні три відеозаписи, пов’язані з QAnon, на вкладці «Усі рекомендації» на домашній сторінці. В одному із рекомендованих відеозаписів згадується змова навколо хімічної сполуки Адренохром - широко поширена в групах QAnon, яка була отримана елітними діячами Голлівуду в результаті вбивства дітей - і мала понад 1 мільйон переглядів.

Представник YouTube відмовився коментувати цю історію.

За словами Партіна, спосіб перегляду вмісту QAnon на YouTube не базується на відео, рекомендованих користувачам, а на вмісті самих відео, пов'язаних з QAnon. Інфлюенсери QAnon часто викрикують іншого у відео або спрямують глядачів на інші сторінки, незалежно від того, як YouTube модерує теги QAnon або відео. Однак Партін зазначив, що є деякі теги QAnon, які настільки неясні, що YouTube не може заповнювати результати пошуку фактичним вмістом із надійних джерел.

"На той момент ви не можете приховати це алгоритмічно, ви не можете зупинити когось від активного пошуку", - сказав він.

Партін сказав, що YouTube колись був "ключовим місцем" для ознайомлення користувача з вмістом, пов'язаним з QAnon, але зараз більшість рекрутингу відбувається у Facebook - де приватні групи QAnon можуть розбухнути на сотні тисяч і особливо важко модерувати.

Як повідомляється, Facebook планує зробити подібний крок для модерації групи, повідомляє The New York Times, слідуючи за Twitter та TikTok.

"Коли платформи рухаються, щоб заборонити QAnon, вони часто роблять все це одночасно, щоб мати силу в цифрах", - сказав Партін. "Але насправді важко вибудувати політику щодо QAnon, тому що багато з них - це звичайні консервативні елементи електорату".

Партін сказав, що єдине, що він сподівається, що люди розуміють про небезпеку вмісту, пов'язаного з QAnon у соціальних мережах, полягає не в тому, наскільки широко і наскільки глибоко вірять у його змови, а в ризику натиснути на саму кнопку "поділитися".

"Неможливо дізнатися чиїсь наміри, але намір не так важливий", - сказав він. "Мені насправді байдуже, роблять вони це чи не вірять, вони поводяться так, як вони роблять, і вони поширюють цей вміст і цю довіру, незалежно від намірів, що стоять за цим"

Останні повідомлення