Дезінформація поширюється в суспільстві подібно до вірусної епідемії, — дослідження
Вчені виявили, що поширення дезінформації має багато спільного з поширенням вірусів. Математичні моделі, які спочатку були розроблені для дослідження вірусних епідемій, допомагають вченим аналізувати, які дезінформація поширюється у суспільстві.
Про це пише The Conversation.
Занепокоєння з приводу дезінформації широко поширене, нещодавнє опитування ООН показало, що 85% людей у всьому світі стурбовані нею.
Близько 73% американців зазначають, що бачили новини з недостовірною інформацією про вибори, а майже половина з них постає перед труднощами у визначенні, що є правдою, а що – фальшивкою.
Останні дослідження використовують епідеміологічні моделі, щоб зрозуміти, як дезінформація поширюється в соціальних мережах.
Модель "чутливий-інфікований-стійкий" (SIR) ефективно показує динаміку між тими, хто схильний до дезінформації (S), хто вже "заражений" (I) і хто вже "одужав" або став до неї стійким (R). Ці моделі дозволяють виявити основні параметри поширення дезінформації, як-от базове репродуктивне число (R0) – середня кількість людей, на яких "інфікований" може поширити фейк.
Більшість платформ соціальних медіа мають приблизний R0 понад 1, що вказує на те, що платформи мають потенціал для поширення дезінформації, подібного до епідемії.
Поширювачі дезінформації в соцмережах можуть нести фейки про вибори для сотень мільйонів людей, що ставить офіційні структури у програшну позицію в боротьбі з ними. І навіть якщо ризик "інфікування" становить лише 10%, поширення дезінформації може швидко набувати великих масштабів.
Читайте також: Карусель емоцій. Рівень маніпулятивності українських телеграм-каналів
У відповідь на це дослідники пропонують "психологічне щеплення", або prebunking. Це коли дослідники заздалегідь представляють, а потім спростовують неправдиву інформацію, щоб люди отримали імунітет до дезінформації в майбутньому. Це схоже на вакцинацію, коли людям вводять (ослаблену) дозу вірусу, щоб підготувати їхню імунну систему до майбутнього впливу.
Наприклад, нещодавнє дослідження використовувало чат-ботів зі штучним інтелектом для створення повідомлень проти поширених міфів про фальсифікацію виборів. Вони заздалегідь попереджали людей про те, що політичні гравці можуть маніпулювати їхньою думкою за допомогою сенсаційних історій на кшталт «масові нічні вкидання голосів змінюють результати виборів», а також надавали ключові поради про те, як розпізнати такі оманливі чутки.
Ці «щеплення» можна інтегрувати в популяційні моделі поширення дезінформації, зазначають дослідники.