fbpx

Коли справа доходить до розуміння науки та прийняття рішень щодо здоров’я, це може призвести до життя чи смерті.

Люди, яких відмовляли від вакцинації, читаючи в Інтернеті оманливу інформацію, потрапляли в лікарні або навіть помирали .

А неточні або повністю вигадані заяви про 5G та походження Covid-19 пов’язують із насильством та вандалізмом .

Але повне видалення інформації може бути схоже на цензуру, особливо для вчених, чия кар’єра заснована на розумінні того, що можна і потрібно сперечатися з приводу фактів, а докази змінюються.

Royal Society є найстарішою науковою установою в світі, яка постійно працює, і вона намагається впоратися з проблемами, пов’язаними з нашими новітніми способами передачі інформації.

У новому звіті Royal Society не радить компаніям соціальних мереж видаляти контент, який є «законним, але шкідливим». Натомість, як вважають автори звіту, сайти соціальних медіа повинні налаштувати свої алгоритми, щоб запобігти поширенню вірусів і не дозволяти людям заробляти гроші на неправдивих заявах.

Але не всі погоджуються з цією думкою – особливо дослідники, які є експертами у відстеженні того, як дезінформація поширюється в Інтернеті та як вона шкодить людям.

Центр протидії цифровій ненависті (CCDH) стверджує, що є випадки, коли найкраще видалити вміст, коли він дуже шкідливий, явно неправильний і дуже широко поширюється.

Команда вказує на Plandemic – відео, яке стало вірусним на початку пандемії, де робилися небезпечні та неправдиві твердження, призначені для того, щоб відлякати людей від ефективних способів зменшення шкоди від вірусу, таких як вакцини та маски, і зрештою було видалено.

«Це політичне питання… який баланс ми бачимо між індивідуальними свободами та деякими формами обмежень щодо того, що люди можуть, а що не можуть говорити», – каже професор Расмус Клейс Нільсен, директор Інституту журналістики Reuters в Оксфордському університеті. .

жінка на протесті, що тримає знак зупинки вакцин
Підпис зображення,Протест проти вакцин

Повторюючи цю стурбованість, Royal Society каже: «Видалення вмісту може посилити почуття недовіри та бути використаним іншими для просування вмісту дезінформації». Це «може завдати більше шкоди, ніж користі, спрямовуючи дезінформаційний вміст… до куточків Інтернету, які важко адресувати».

Деякі з насильницьких протестів, які принаймні частково були викликані змовою , виникли не в темних куточках Інтернету, а у Facebook. І існує мало чітких доказів того, що видалення вмісту ще більше спонукає людей до шкідливих переконань.

Змінити алгоритм

Наукова дезінформація не є чимось новим.

Неправильна віра у зв’язок між вакциною MMR та аутизмом виникла з опублікованої (а пізніше відкликаної) наукової роботи, тоді як широко поширені недоказові переконання про шкоди фторування води були викликані друкованими ЗМІ, агітаційними групами.

Що змінилося, так це швидкість поширення неправдивих фактів і величезна кількість людей, які можуть їх прочитати.

Замість того, щоб вилучати вміст, автори звіту запропонували один із способів боротьби з дезінформацією — це ускладнити пошук і поширення, а також зменшити ймовірність автоматичного відображення в чиїхось стрічках.

Професор Джіна Нефф, соціолог з Оксфордського Інтернет-інституту, пояснила, що це покликане «забезпечити, щоб люди все ще могли висловлювати свою думку» — їм просто не гарантується мільйонна аудиторія.

«Вони все ще можуть публікувати цю інформацію, але платформи не повинні робити її вірусною».

Перевірка фактів

Інститут стратегічного діалогу (ISD), аналітичний центр, який займається моніторингом екстремізму, зазначає, що значна частина дезінформації покладається на привласнення та неправомірне використання справжніх даних і досліджень.

«Іноді це небезпечніше, ніж відверто неправдива інформація, тому що може знадобитися набагато більше часу, щоб розвінчати, пояснивши, як і чому це є неправильним читанням або неправильним використанням даних», — говорить представник компанії.

Ось тут на допомогу приходить перевірка фактів – ще один інструмент, який підтримує Королівське товариство.

Де-платформинг осіб

ISD каже, що дослідження показало, що невелика група акаунтів, які поширюють дезінформацію, мала «непропорційний вплив на публічні дебати в соціальних мережах».

“Багато з цих облікових записів були позначені перевіряючими фактами як такі, що неодноразово поширюють неправдивий або оманливий вміст, але залишаються активними”.

Королівське товариство не розслідувало видалення облікових записів «впливників», які є особливо плідними розповсюджувачами шкідливої ​​дезінформації.

Але багато експертів з дезінформації розглядають це як важливий інструмент, і дослідження ІДІЛ і ультраправих показують, що воно може бути успішним.

Коли Девіда Айка, плідного розповсюджувача дезінформації про Covid, а також антисемітських теорій змови, було видалено з YouTube, дослідження CCDH виявило, що його здатність зв’язуватися з людьми значно зменшилася.

Хоча його відео залишалися на альтернативній платформі відеохостингу BitChute, їх перегляди впали в середньому зі 150 000 до заборони YouTube до 6 711 після. На YouTube 64 його відео переглянули 9,6 мільйона разів.

Дослідження з Університету Кардіффа показали, що де-платформинг Кейт Шемірані , колишньої медсестри та плідного розповсюджувача дезінформації про Covid, у короткостроковій перспективі зменшив її охоплення.

«Частиною проблемою є те, що потрібно розвивати поточні моделі де-платформингу. Недостатньо просто видалити частину контенту чи невелику кількість облікових записів», – пояснює один із авторів статті – професор Мартін Іннес.

За його словами, дослідження організованої злочинності та боротьби з тероризмом показують необхідність руйнування всієї мережі.

Але він вважає, що цей рівень ще не впроваджений у те, як ми боремося з дезінформацією, яка може поставити людей у ​​небезпеку.

Джерело

COVID-19 Live