Спіраль залежності
gif gif
gif

СПІРАЛЬ ЗАЛЕЖНОСТІ

Як алгоритми YouTube просувають
конспірологію та пропаганду

gif

Опубліковано: 28 листопада, 2023 р.
Read this article in English.

Над проектом працювали:
Роман Кульчинський, Галина Пастух, Юлія Дукач, Сергій Міхальков, Владислав Герасименко, Надя Кельм, Євгенія Дроздова.

Youtube вже давно перетворився на зручне й комфортне місце, де двоє з трьох українців не тільки переглядають розважальний і повчальний контент, а й шукають новини та спостерігають за виром українського політичного життя.

“Серце” YouTube — його алгоритм рекомендацій. Працює все просто: чим кращі рекомендації пропонує платформа, тим більше користувачі проводять там часу й тим більше грошей надходить за перегляд реклами.

Наскільки впливовим є алгоритм рекомендацій, стає зрозуміло із заяв виконавчого директора YouTube про те, що 70% відео, які дивляться глядачі, — це те, що пропонує рекомендаційна система. Саме тому алгоритм безперервно розвивають і вдосконалюють, роблячи таким чином контент на платформі ще більш персоналізованим.

Але, попри очевидну ефективність, платформі ще є куди розвивати свою соціальну відповідальність. І наразі схоже, що YouTube через рекомендації може просувати загрозливий і небезпечний як для окремого глядача, так і для української національної безпеки контент.

Є багато факторів, які визначають, яке відео рекомендувати користувачеві. Серед найважливіших:

Проте ми не знаємо як саме розподілений вплив цих факторів. Як і не знаємо того, як саме платформа визначає схожі відео. Адже інформація про алгоритми є закритою та становить комерційну таємницю.

Тому ми вирішили дослідити алгоритми платформи на основі тих рекомендацій, які вона надавала з середини до кінця літа 205 українцям, які встановили розроблений нами додаток та погодились передавати інформацію про всі свої перегляди на платформі.

Методологія

Ми спробували виявити потенційні проблеми в системі рекомендації платформи. Зокрема, чи весь контент серед рекомендацій безпечний, чи просуває Youtube пропаганду та дезінформацію, та наскільки платформа схильна створювати штучну інформаційну бульбашку для користувача.

Нумо розбиратись що ж не так з алгоритмами YouTube вже на цілком реальних прикладах і користувачах.

Інформаційні партнери:

Всі рекомендації рано чи пізно приведуть до російської пропаганди?

Ватник

vatnik-avatar

Перший наш користувач часто переглядав відверто проросійський контент. Назвемо його “Ватник”.

Він на власному досвіді показав те, як російська дезінформація просочується в український YouTube.

Приклади рекомендацій для “Ватника”

скрольте вниз, щоб роздивитись візуалізацію

scroll-down

пропустити візуалізацію і читати далі

2023-07-28 | 15:19:59

ПЕРЕГЛЯНУТЕ ВІДЕО

РЕКОМЕНДАЦІЇ YOUTUBE

loading

Цей користувач дивиться відео переважно російською. За час дослідження він переглянув 153 відео російською, і лише 15 українською.

YouTube чутливий до питання мови, якою людина дивиться контент. Від того, якій мові – українській чи російській ви надаєте перевагу, напряму залежить мова відео зі списку рекомендацій.

Залежність майже прямолінійна. Більше переглядів російською = більше російськомовних рекомендацій. І навпаки.

І хоч до нашої вибірки не потрапили ті, хто на 100% уникав російськомовного контенту, проте якщо вас дратують російськомовні рекомендації, схоже, що одним з найдієвіших способів буде банальне зменшення кількості переглядів російськомовного контенту (ну або ще можна поставити спеціальний додаток, який їх блокуватиме). Щоправда, як швидко платформа “звикає” до зміни мови – залишається під питанням.

Мовні рекомендації залежать від історії переглядів

Аналіз переглядів нашого користувача показує, як легко в українську YouTube стрічку вриваються потенційно деструктивні та маніпулятивні теми. Засновані на реальних проблемах, проте часто гіперболізовані та загорнуті в емоційну форму – ідеальний клікбейт у відео форматі.

В липні він 4 рази передивлявся 3-х хвилинне відео під назвою “Жінка захищає свій дім та своїх дітей від ТЦК!!!”. Із самого відео не зрозуміло, що відбувається. Але назва змушує користувачів повірити, що жінка дійсно відбивається від представників ТЦК.

Відео належить каналу “Пильний Дніпрянин”. Там часто публікують відверто маніпулятивний контент, суголосний з тезами російської пропаганди. Наприклад, про нібито незаконну мобілізацію чи знущання співробітників ТЦК та поліції.

Ми виявили низку таких каналів, які по-різному маркують свої відео від категорії “Education” до “Entertainment” (про те, на що це впливає, ще згадаємо нижче). І дуже гостро та емоційно виступають проти мобілізації в Україні.

Завдяки нашому користувачеві ми помітили, що Youtube просуває персон та організації, яких сама ж платформа і намагалася заборонити або зменшити їх інформаційний вплив.

Наприклад, 11 серпня 2023 року Youtube видалив два канали проросійського псевдоексперта зі США — Скотта Ріттера. Однак це не заважає платформі продовжувати просувати в списках рекомендацій його інтерв'ю або відео з нарізками.

Деякі канали в YouTube взагалі існують лише з метою просування думок та тверджень Ріттера і декількох проросійських іноземних пропагандистів. І вони досі не заблоковані на платформі.

Це може стосуватися й інших заборонених осіб. Наприклад, топ-пропагандист Володимир Соловйов заблокований на платформі. А насправді залишається присутнім у вигляді відео нарізок або в матеріалах, де прямо не вказано, що тут є заборонений ведучий.

YouTube не завжди дотримується своїх політик, пропускаючи завантаження, які порушують правила платформи.

Це контент із сірої зони — з часом платформа прибирає такі відео, однак є достатньо часу, щоб людина перейшла за рекомендацією та встигла це відео подивитися.

Для українців же рекомендаційний алгоритм платформи нечутливий до питання війни Росії проти України. Під час української боротьби проти російської пропаганди YouTube залишає за собою право на надання персоналізованого контенту, а ніяк не “проукраїнського” чи “проросійського”. Нехтуючи тим, що російська пропаганда — це фактично вид російської зброї, яку Росія використовує для того, щоб знищити і Україну, і західні цінності, завдяки яким став можливим і сам Ютуб. Варто віддати належне Ютубу: він багато зробив для вичищання російської пропаганди. Але система рекомендацій і досі рекомендує відео, які її поширюють. Тож це необхідно змінити навчивши алгоритми розпізнавати проросійський контент і виключати його з рекомендацій для України та для інших країн.

Що стосується України, то YouTube варто врахувати внутрішньодержавні заборони поширювати контент від осіб, які загрожують національній безпеці України (офіційний перелік тут).

Оскільки YouTube не бачить проросійськість, то глядачеві проросійської ведучої Діани Панченко платформа пропонуватиме “персоналізований” контент заборонених в Україні каналів “Страна.ua”, “Ясно. Понятно”. А під час перегляду російських пропагандистів з каналу Олександра Вальдемара, платформа рекомендуватиме інших експертів з цього каналу, які сповідують схожі антиукраїнські принципи.

Як взагалі YouTube “розуміє”, про що йдеться у відео?

YouTube використовує інформацію про автора контенту та все, що стосується самого відео: заголовок, опис, ключові слова та сам відеоряд.

На основі цієї інформації платформа класифікує відео як таке, що представляє окрему категорію. Наприклад, “Новини й політика”, “Ігри” або “Музика”. І цілком очікувано, що якщо користувач дивиться відео з категорії “Спорт”, то YouTube навряд чи рекомендуватиме до перегляду відео з категорії “Наука та технології”.

Але це також означає що:

Завсідник

frequenter-avatar

Інший наш користувач часто дивиться YouTube та активно переходить за рекомендаціями. Назвемо його “Завсідник”. Кожне пʼяте переглянуте ним відео — це те що рекомендувала платформа.

Він один із лідерів серед тих, хто не дуже любить обирати що дивитись, а просто переходить за рекомендаціями.

Приклади рекомендацій для Завсідника

скрольте вниз, щоб роздивитись візуалізацію

scroll-down

пропустити візуалізацію і читати далі

2023-07-16 | 22:24:23

ПЕРЕГЛЯНУТЕ ВІДЕО

РЕКОМЕНДАЦІЇ YOUTUBE

loading

У нашому досліджені більшість користувачів переходить за рекомендаціями в межах 15%. Тобто 15% рекомендованих платформою відео потрапляють до переліку тих, які людина дивиться. Є люди, які за період дослідження жодного разу не переглядали запропоноване платформою відео.

Наш користувач — людина розкута. Він один із тих, хто вміє знаходити на платформі інтимні відео, які, мімікруючи під освітній контент, лишаються невидаленими. І на непристойну назву переглянутого відео платформа реагувала не менш непристойними рекомендаціями.

Переглядаючи відео з Youtube-каналу медичного закладу, він отримував рекомендації схожого контенту зі згадками сексуального характеру також від блогерів, авторів курсів із сексуального розвитку, масажистів та фітнес тренерів.

В одну з рекомендацій потрапила “лікарка”, яка не лише лікує від фізичних і психологічних проблем, а й знімає “вінець безшлюбності”. Відео таких блогерів, які позиціонують себе як лікарі, сексологи та продавці курсів із духовного розвитку, платформа також часто маркує як Education (“Навчальні”).

Варто памʼятати: YouTube ніколи не був сам по собі джерелом надійної інформації. Що гірше: через систему рекомендацій він ще й може промотувати потенційно шкідливий антинауковий та псевдомедичний контент.

У рекомендації наших користувачів потрапляв контент про лікування раку содою, чудодійне зниження холестерину без ліків, різні неперевірені дієти та голодування, боротьбу із зайвою вагою сумнівними методами, а також пряма реклама сумнівних медичних препаратів. І всі ці відео платформа теж маркувала як Education.

Приклади заголовків, які потрапляють у рекомендації

Наведіть на заголовок, щоб збільшити текст

Віцепрезидент YouTube з технологічних питань Крістос Ґудроу розповідав, що платформа намагається боротися з такими відео. Він назвав такий контент “прикордонного вмісту“, “тобто вмісту, який близький, але не зовсім порушує наші Правила спільноти. Він включає відео з теорії змови («висадка на Місяць була фейком») або інший контент, який поширює дезінформацію («апельсиновий сік може вилікувати рак»)”.

Ґудроу зазначив, що платформа зосередиться на формуванні відповідальних рекомендацій і вживатиме заходів, щоб система не рекомендувала цей вміст широко.

Наше дослідження, у межах якого були виявлені численні рекомендації “прикордонного вмісту”, свідчить, що YouTube не справляється із цим завданням.

А ще ми побачили, що YouTube часом некоректно категоризує цілком однозначні відео.

Наприклад, відео з російським пропагандистом Яковом Кедмі було промарковане як “Кіно та анімація” (Film & Animation), а конспірологічні теорії могли отримувати позначку “Наука та технології” (Science & Technology).

Чому це може бути проблемою?

Категорія відео впливає на просування. Тобто якщо Яків Кедмі промаркований як “Кіно та анімація”, то є ймовірність, що його пропагандистський ролик випливе в рекомендаціях людини, яка любить дивитися відео про кіно. Людина його перегляне, і потім платформа знову підсовуватиме Кедмі, а згодом й інший схожий пропагандистський контент.

Що з рекомендацій переглядають

Який тип відео рекомендується після перегляду

Це пов’язано зі змінами алгоритму рекомендаційної системи. Раніше платформа просувала популярні канали та популярні відео. А з 2017 року YouTube став рекомендувати контент за схожістю. І маркування каналів та відео — одна зі змінних, яка на це впливає. Але не тільки вона.

Це точно не музика. Це ваша історія переглядів

Одного дня наш “Завсідник” використовував платформу лише з однією метою — послухати музичну композицію на невеликому каналі київської блогерки. Після цього відео він отримав 48 рекомендацій.

Сам музичний кліп YouTube зарахував до категорії People & Blogs. Але серед рекомендацій лише одна пропозиція була з категорії Music. Решта — політичний і воєнний контент.

Це, зокрема, такі відео:

І це точно не музика. Хоча згадані відео й не російська дезінформація, але їх упевнено можна було б зарахувати до категорії “Інформаційне сміття”, якби така була на YouTube.

Це яскравий приклад впливу історії переглядів на систему рекомендацій.

Навіть якщо людина дивиться нове відео, YouTube просуває контент із каналів, які користувач переглядав раніше.

Домінування історії в роботі системи рекомендацій свідчить про те, що платформі зручніше проштовхувати “перевірені рекомендації”, що подекуди створює ефект бульбашки, або циклічності.

Так заточений алгоритм: якщо ви переглядаєте щось нове, не притаманне вашій історії переглядів, системі рекомендацій потрібен час для аналізу та пристосування до ваших нових уподобань.

З попередньої добірки легко здогадатися, що наш користувач часто дивився різних експертів і канали з проукраїнською позицією. А тому й отримував відповідні рекомендації.

Це один із показників алгоритму рекомендацій. Якщо користувач переглядає відео з якоюсь особою, платформа рекомендуватиме йому значно більше контенту саме з цією особою, що зменшує шанси нових людей потрапити до списку.

З одного боку, це прив’язка до інтересів користувача. Логічно, що коли йому подобається певна особа, то він нею цікавитиметься. А з другого — це формування інформаційної бульбашки.

Іншим разом наш користувач переглядає навчальний відеоконтент про засвоєння англійської мови. Із 17 рекомендацій від Youtube лише 4 мають релевантний характер. Решта — це політичний контент на основі історії переглядів.

А от ранок 27 липня в користувача розпочався з перегляду історичного серіалу “НЕВЕРОЯТНАЯ ИСТОРИЯ САМОЙ ИЗВЕСТНОЙ КУРТИЗАНКИ! Мата Хари”.

І знову YouTube запропонував 17 рекомендацій. І знову з них лише 4 мали у своїй назві слово “Мата Харі”. Решта — політичний контент, схожий на попередню історію переглядів.

Однією з рекомендацій було відео під назвою “Пророчества Вольфа Мессинга на 2023 год” від каналу “Сундучок историй”. Відео розповідає, що Мессінґ передбачив пандемію коронавірусу ще за свого життя. Як і війну Росії проти України. За версію авторів відео, телепат нібито пророкував загибель США й перемогу Росії. А це вже схоже на російську дезу, яка любить використовувати різних пророків, магів, чаклунів та астрологів.

Схожі канали та відео — часті гості в списку рекомендацій від Youtube. Вони приклад того, що називають шкідливою бізнес-моделлю платформи.

Раніше рекламу могли показувати лише популярні канали, перевірені YouTube. Але з 2012 року YouTube дозволив усім творцям відео розміщувати рекламу від платформи й отримувати частину прибутку, який вона генерує.

Це змушує творців відеоконтенту боротися за увагу аудиторії та збирати нових користувачів. Автори створюють клікбейтні заголовки й продукують велику кількість відео сумнівної якості.

Платформу заполонили експерти, тарологи, псевдолікарі та псевдонауковці, які здатні створити часом безумний та антинауковий контент, прикрасивши відео яскравою назвою. Аби тільки користувач перейшов і переглянув матеріал.

А більше переглядів = більше реклами = більше прибутків самому YouTube.

Не особистий вибір

Отже, те, що ми подивилися на платформі, визначає те, що потрапляє в рекомендації. Але це не означає, що рекомендації та перегляди — це лише особистий вибір.

Алгоритм надання рекомендацій фокусується не лише на вас, а й на людях зі схожими інтересами. Тому, якщо ви дивитеся проросійський контент, YouTube орієнтуватиметься і на людей, які також споживають такий контент. І рекомендуватиме вам те, що сподобалося їм.

А ЩО КАЖУТЬ В YOUTUBE?

Тому, якщо ви фанат проросійського наративу, вам підсовують те, що дивляться й інші проросійські користувачі.

І якщо ви, як і наш “Ватник”, переглянете відео “Зачем Шойгу ездил в КНДР? Константин Сивков” із YouTube-каналу “НАШЕ ЗАВТРА”, то у відповідь на зацікавленість справами росіян вам платформа запропонує також ознайомитися з іншими конспірологічними теоріями. Наприклад, із роздумами про світовий уряд і керівну расу, тезами на кшталт “Армией Украины командуют ЭрБины”. Або ж підкине вічну класику — хто насправді вбив Кеннеді?

Приклади заголовків конспірологічних відео,
які рекомендує YouTube

Наведіть на заголовок, щоб збільшити текст

А ЩО КАЖУТЬ В YOUTUBE?

Схоже дослідження проводило видання Engadget. Вони дійшли висновку, що рекомендації на відеоплатформі YouTube можуть підштовхувати дітей до перегляду відео про шкільну стрілянину та іншого контенту, пов’язаного зі зброєю.

“Дослідження показало, що YouTube просував контент про стрілянину і зброю на всі геймерські акаунти, але в значно більшому обсязі користувачам, які натискали на рекомендовані YouTube відео. Ці відео містили сцени масових заходів зі стріляниною, графічні демонстрації того, якої шкоди може завдати вогнепальна зброя людському тілу, а також інструкції з перетворення пістолета на автоматичну зброю”.

У 2019 році платформа оголосила, що оновлює свою політику щодо заборони відео, які пропагують неонацизм, перевагу білої раси та інші фанатичні погляди. Компанія також заявила, що змінює свій алгоритм рекомендацій, щоб зменшити поширення дезінформації та теорій змови.

Вище ми вже писали про контент із “сірої зони” — рекомендації нашого користувача свідчать про те, що теорії змови, як і псевдомедичний контент нашого другого юзера Завсідника, часто потрапляє в рекомендації. І фактично просувається самою платформою.

YouTube створив небезпечний шлях до просування і конспірології, поєднавши дві речі: бізнес-модель, яка винагороджує провокаційні відео поширенням і рекламними грошовими виплатами, й алгоритм, який скеровує користувачів персоналізованим шляхом, покликаним тримати їх прикутими до їхніх екранів.