Ludzie udostępniają fake-newsy, nawet kiedy wiedzą, że są nieprawdziwe

Rozprzestrzenianie się w fałszywych wiadomości w mediach społecznościowych jest problemem od wielu lat. Czy istnieje zatem jakieś proste rozwiązanie, które powstrzyma ludzi przed udostępnianiem nieprawdziwych informacji?

Gordon Pennycook z University of Regina w Kanadzie wraz ze swoim zespołem odkrył, że ludzie stosunkowo łatwo odkrywają, które informacje to fake-newsy, jednakże wciąż chętnie udostępniają je dalej. Powodem jest nieumiejętność – przynajmniej w danym momencie – myślenia analitycznego.

Naukowcy przedstawili ponad 2500 osobom z USA prawdziwe nagłówki i zdjęcia zaczerpnięte z mainstreamowych mediów, a także ze zbioru materiałów, które zostały przeanalizowane i uznane za całkowicie fałszywe.

W pierwszej części badania poproszono uczestników o wskazanie, czy rozważaliby udostępnianie nagłówków w swoich mediach społecznościowych. Wielu osób potwierdziło chęć rozpowszechniania danej wiadomości niezależnie od tego, czy nagłówek był rzeczywiście prawdziwy.

Po bardziej szczegółowej analizie okazało się, że prawdopodobieństwo udostępnienia nagłówka przez ludzi było bardziej zależne od tego, czy jest to zgodne z ich przekonaniami politycznymi. Na przykład, jeśli nagłówek był fałszywy, ale zgodny z czyjąś skłonnością polityczną – niezależnie czy bardziej skierowaną do lewej czy prawej strony sceny politycznej – szanse, że został udostępniony dalej wzrastały aż o 37,4 procent. Szanse na udostępnienie, jeśli dana wiadomość był prawdziwa, ale niezgodna z czyimś zachowaniem spadała do 20 procent.

W ramach dalszych badań zespół poprosił inną grupę osób o ocenę trafności nagłówków przed zapytaniem, czy rozważaliby udostępnianie jej na swoim Facebooku, Twitterze, etc. Okazało się, że osoby, które otrzymały informację o tym, czy artykuł jest fałszywy czy nie, znacznie rzadziej rozważały udostępnianie fake-newsów.

Opierając się na tym drugim odkryciu, naukowcy zbadali, czy osoby korzystające na co dzień z Twittera można zachęcić do udostępniania historii, które podejrzewają, że są fałszywe. Zespół zidentyfikował tysiące użytkowników, którzy wcześniej udostępnili wiadomości z potencjalnie wprowadzających w błąd stron internetowych i użył botów Twittera do wysyłania wiadomości do prawie 5500 z nich.

Badacze poprosili tych uczestników, aby ocenili trafność (prawdziwość) pojedynczego, ale niepolitycznego nagłówka. Następnie zmierzyli wiarygodność wiadomości udostępnianych przez tych użytkowników, używając skali wiarygodności opracowanej przez niezależnych kontrolerów faktów.

Bardziej godne zaufania

Naukowcy odkryli, że wydaje się, że ich prośba o ocenę dokładności odniosła skutek. Wiadomości, które użytkownicy Twittera udostępnili w ciągu 24 godzin od otrzymania monitu o ich prawdziwości, oceniono jako wiadomości o 3,5 procenta bardziej wiarygodne niż inne – udostępnione przez tych użytkowników zanim zespół naukowców się z nimi skontaktował.

– Niektórzy ludzie mogą celowo udostępniać fałszywe treści. Sugeruje to, że ludzie są bardziej skłonni do rozpowszechniania dezinformacji, ponieważ nie myślą o prawdzie i dokładności w mediach społecznościowych –  mówi Pennycock.

– Są one traktowane jako media związane z rozrywką, z których ludzie korzystają często, gdy – na przykład – robią sobie przerwę od myślenia – kontynuuje naukowiec. Prawdopodobnie nie sprzyja to zachowaniom, aby sprawdzać, czy to, co czytają, jest prawdą, czy nie. 

– Musimy zrobić coś, co zachęci ludzi do odrobiny refleksji – mówi na koniec Pennycock.

Zespół chciałby współpracować z platformami mediów społecznościowych w celu skalowania eksperymentu, aby zobaczyć, jak monit o prawdziwości danego artykułu ma wpływ na decyzje użytkowników odnośnie udostępniania go dalej. Pytanie tylko, czy szefom Facebooka czy Twittera zależy na tym, aby ludzie przestali działać w ich ramach na emocjach, a zaczęli używać krytycznego myślenia.

Źródło: PsyArXiv

Wesprzyj nasze działania w zakresie przeciwdziałania zanieczyszczeniu hałasem. Podaruj 1,5% podatku.

Wypełnij PIT przez internet i przekaż 1,5% podatku
blank

Alan Grinde

Społecznik od ponad 30 lat. Założyciel fundacji ORION Organizacja Społeczna oraz Fundacji Techya. Edukator z zakresu hałasu, praw człowieka, przemocy i zdrowia publicznego. Specjalista w zakresie nowych technologii, sztucznej inteligencji oraz projektowania graficznego. Inicjator kampanii "Niewidzialna ręka przemocy" oraz "Wiele hałasu o hałas".
blank
ORION Organizacja Społeczna
Instytut Ekologii Akustycznej
ul. Hoża 86 lok. 410
00-682 Warszawa
Email: instytut@yahoo.com
KRS: 0000499971
NIP: 7123285593
REGON: 061657570
Konto. Nest Bank:
92 2530 0008 2041 1071 3655 0001
Wszystkie treści publikowane w serwisie są udostępniane na licencji Creative Commons: uznanie autorstwa - użycie niekomercyjne - bez utworów zależnych 4.0 Polska (CC BY-NC-ND 4.0 PL), o ile nie jest to stwierdzone inaczej.