ARCHIWUM

Postawa nauki behawioralnej wobec alternatywnego Internetu

blank

Polaryzacja, teorie spiskowe, fake news: To, co ludzie widzą w Internecie, jest w dużym stopniu narzucone niejasnymi algorytmami zaledwie kilku korporacji. To niepokojący rozwój dla społeczeństw demokratycznych.

Jednakże środowiska online mogłyby być tworzone w ten sposób, aby promować niezależność i przejrzystość, tym samym wspierając pozytywny potencjał internetu. Grupa naukowców z Max Planck Institute for Human Development w Berlinie, University of Bristol i Harvard Law School podeszła do tego tematu od strony nauki behawioralnej i zaproponowała działania mogące promować bardziej demokratyczny Internet. Wyniki badań zostały opublikowane w  Nature Human Behaviour.

Przewijasz swojego YouTube’a, Facebooka, czy Twittera i w twoich polecanych pojawia się film: raport o tajnych umowach politycznych, konspiracji mediów czy fałszywych badaniach naukowych. Wszystko to wydaje się być poparte faktami. Film ma setki tysięcy wyświetleń i zdaje się zyskiwać popularność na całym świecie. I wielu oglądających zdaje się z nim zgadzać, zostawiając swoje “lubię to”.  Lecz co to tak naprawdę znaczy? Czy to sprawia, że film jest wiarygodny? Ile osób obejrzało film do końca; ile tylko do połowy? I dlaczego w ogóle ten film pojawił się w twoich polecanych? Platformy internetowe znają wiele odpowiedzi, ale nie dzielą się tymi informacjami. Nie ma też żadnych innych wskazówek, które mogłyby pomóc ci w ocenie zawartości, jakości czy wiarygodności filmu.

Według raportu Reuters Institute Digital News z 2019 roku, ponad połowa (55%) użytkowników Internetu na świecie używa mediów społecznościowych lub wyszukiwarek do śledzenia wiadomości. Innymi słowy, opinia publiczna jest w dużym stopniu kreowana zawartością internetową, układaną przez algorytmy. –  Celem jest uszczęśliwianie użytkownika jak najdłużej to możliwe, aby został na stronie. Osiąga się to poprzez dostarczanie rozrywki i budowanie doświadczenia dobrego samopoczucia  — co prawdopodobnie wyjaśnia, dlaczego wiele platform nie oferuje przycisku “nie lubię tego”, pozwalających na negatywną ocenę zawartości. Przekazuje się wiadomość: to ty masz rację. Może to być nieszkodliw,e kiedy dzielimy się prywatnymi treściami, takimi jak zdjęcia z wakacji, ale zakłóca obraz, jeśli przekazywane są radykalne opinie i nieprawdy – mówi Stephan Lewandowsky, współautor badań, profesor psychologii kognitywistycznej na University of Bristol.

Kolejny problem jest taki, że algorytmy kanałów informacyjnych pokazują użytkownikom jedynie treści oparte ma ich poprzednich aktywnościach — takie, z którymi prawdopodobnie będą się zgadzać. Inny punkt widzenia zdaje się być pomijany. Tworzy to sieci użytkowników myślących w podobny sposób, którzy wzmacniają podzielane opinie i tworzą iluzję szerokiego poparcia, nawet gdy dana opinia nie jest powszechnie uważana. Ale jak możemy odróżnić fake news od faktów? I jak środowiska internetowe mogą być tworzone, aby w tym pomóc? – Działania, które proponujemy, są skierowane na umożliwienie indywidualnym użytkownikom podejmowania niezależnych i opartych na informacjach decyzji w środowiskach online — najlepiej bez konieczności polegania na niezależnych weryfikatorach informacji. Architektura środowisk online wpływa na zachowanie użytkownika. Aby zmienić środowisko na lepsze, musimy rozumieć ludzkie zachowania i uwzględniać je przy kreowaniu możliwości.- mówi Philipp Lorenz-Spreen, główny autor badań i naukowiec przy Max Planck Institute for Human Development.

Zespół badawczy ustalił wiele sposobów aby pomóc użytkownikom oceniać jakoś zawartości Internetu i rozumieć mechanizmy kryjące się za algorytmami — bez ograniczenia wolności będącej jego głównym założeniem. Te rozwiązania są technologicznie możliwe, ale w dużej mierze wciąż niewykorzystywane. Zespół badawczy opracował konkretne rekomendacje aby pomóc indywidualnym użytkownikom, opierając się na dwóch podejściach z nauk behawioralnych: trącaniu i wzmacnianiu.

Trącanie ma na celu kierowanie zachowaniem ludzi poprzez podkreślanie ważnych informacji bez nakładania zasad czy banowania. Wzmacnianie polega na zwiększanie zdolności decyzyjnych człowieka, umożliwiając mu niezależne sterowanie sytuacjami i podejmowanie lepszych decyzji. Według badaczy ważne jest zastosowanie wielostronnego podejścia aby dotrzeć do jak największej grupy ludzi. Trącanie może być na przykład użyte do ustalenia czy treści spełniają dane kryteria jakościowe — takie jak to, czy pochodzi z wiarygodnych źródeł. Zachęcałoby to użytkowników do wnikliwego sprawdzania treści oraz skłaniało producentów treści do spełnienia wymaganych kryteriów. Kolejnym krokiem byłoby zawieranie odnośników do sprawdzonych źródeł. Jako model może tu posłużyć Wikipedia: odnośniki, które się tam znajdują, pomagają w rozpatrywaniu prezentowanych informacji w szerszym kontekście. Twitter niedawno podjął kroki w tym kierunku i zaczął oznaczać niektóre tweety ostrzeżeniem o weryfikacji faktów — w tym tweet Donalda Trumpa na temat głosowania korespondencyjnego.

Trącanie może również nieść dodatkowe informacje o zachowaniu użytkownika online, zapewniając dodatkowy kontekst tego, jak inni oceniają zawartość. Na przykład liczba polubień może być ukazana w relacji do całkowitej liczby odczytań: ‘4 287 z 1.5 miliona czytających polubiło ten artykuł’. Informacja o tym, że dany artykuł ma 44 000 odsłon, ale jedynie 3 000 użytkowników przeczytało go do końca, może być lepszym wskaźnikiem jakości niż sama liczba odsłon czy polubień. Udowodniono, że przejrzyste formaty numeryczne pomagają przy decyzjach medycznych. Czemu nie zastosować tego również dla internetu? To podejście mogłoby zapobiegać tworzeniu się ‘komór echa’ w których grupy ludzi niesłusznie wierzą w to, że ich opinia jest rozpowszechniona i akceptowana.

Inną możliwością może być nieznaczne utrudnienie użytkownikom dzielenia się informacją, kiedy artykuł nie odnosi się do zewnętrznych źródeł. Na przykład, użytkownicy mogą być proszeni o zatwierdzenie wyskakującego okienka zawierającego ostrzeżenie o brakujących odnośnikach. Kolejny typ trącania może celować w to, jak treści są umieszczane w wyszukiwarkach — czyli to, w jaki sposób dany kanał informacyjny sortuje zawartość. Jednoznaczne rozróżnianie rodzajów treści, takich jak opinie, wiadomości czy posty znajomych, może przyczynić się do zwiększenia przejrzystości kanałów informacyjnych.

Wzmocnienie ma natomiast na celu zwiększenie kompetencji użytkownika w perspektywie długoterminowej. Mogłoby to na przykład oznaczać umożliwienie ludziom dostosowania sortowania ich treści — pozwalając im zmienić swoje ustawienia, pozwalając ustalić które czynniki są dla nich najważniejsze i jakie treści chcieliby widzieć jako pierwsze. Sieci społecznościowe mogłyby zostać zobligowane do wskazania, dlaczego niektóre treści zyskują większą wagę i pokazywane jako pierwsze, podczas gdy inne treści dostają mniejszą wagę. Innym przykładem wzmacniania mogłoby być ukazywanie oryginalnego źródła informacji i drogi, którą przebyła, zanim trafiła do użytkownika. Proste drzewa decyzyjne mogłyby prowadzić użytkowników krok po kroku przez proces sprawdzania źródła, kontekstu i jakości treści online. Innymi słowy, użytkownikom udostępniłoby się narzędzia, które pozwolą im samym na sprawdzanie faktów. W dłuższej perspektywie  nauczyliby się rozpoznawać szablony,  aby krytycznie podchodzić do treści i szybciej rozpoznawać manipulacje.

– Interaktywna natura mediów społecznościowych może zostać wykorzystana do promowania różnorodnego, demokratycznego dialogu i wspierania inteligencji zbiorowej. Naszym celem jest odnalezienie sposobu na wzmocnienie potencjału Internetu w zakresie informowania o procesach decyzyjnych w społecznościach demokratycznych, wzmacniając je a nie podważając. Problemy globalne takie jak zmiany klimatyczne czy pandemia koronawirusa wymagają skoordynowanych, zbiorczych rozwiązań. A to sprawia, że demokratycznie połączony świat online ma kluczowe znaczenie – mówi Ralph Hertwig, Dyrektor Centrum Racjonalności Adaptacyjnej przy  Max Planck Institute for Human Development.

Źródło: How behavioural sciences can promote truth, autonomy and democratic discourse online. (Nature Human Behaviour), Max Planck Institute for Human Development

Śledź nasz kanał na Telegramie

z materiałami niepublikowanymi na naszej stronie
blank

Kazimierz Przybysz

Dolnoślązak, quasi-poeta i_nżynier (bezsprzeczny). Interesują go słowa i czyny. Ukończył inżynierię zarządzania (Wirtschaftsingenieurwesen) na niemieckiej HSZG. Publikuje w Stronie Czynnej i na Portalu Pisarskim. Słucha muzyki, gotuje i medytuje. No i tłumaczy, najlepiej jak potrafi.
blank
ORION Organizacja Społeczna
ul. Hoża 86 lok. 410
00-682 Warszawa
Email: orionfm@yahoo.com
KRS: 0000499971
NIP: 7123285593
REGON: 061657570
Konto. Nest Bank:
92 2530 0008 2041 1071 3655 0001
Wszystkie treści publikowane w serwisie są udostępniane na licencji Creative Commons: uznanie autorstwa - użycie niekomercyjne - bez utworów zależnych 4.0 Polska (CC BY-NC-ND 4.0 PL), o ile nie jest to stwierdzone inaczej.