„Czas na zabijanie”. Facebook zezwala na reklamy zawierające mowę nienawiści podczas wojny domowej w Etiopii

Nie jest to sytuacja tak bliska jak wojna w Ukrainie, jednakże od 2020 roku w Etiopii trwa wojna domowa, która zbiera okrutne żniwo. W konflikcie tym giną tysiące ludzi, a miliony są zmuszone do opuszczenia swoich domów. Wokół tej wojny pojawia się wiele wiarygodnych oskarżeń o zbrodnie wojenne. O całej sytuacji wiemy, m.in. dzięki sygnalistce Frances Haugen, która nazwała sytuację po prostu „przemocą etniczną”.

Sytuacja w Etiopii jest dodatkowo trudna ze względu na fakt, że media społecznościowe i dostęp do sieci nie są tak wykorzystywane jak przy okazji doniesień z frontu w Ukrainie. Dwie organizacje pozarządowe – Global Witness oraz Foxglove (organizacja prawnicza) wraz z niezależnym badaczem Dagimem Afeworkiem Mekonnenem, przeprowadziły śledztwo, w którym wykazały, jak słabe są algorytmy Facebooka w wykrywaniu mowy nienawiści i to prowadzonej po amharsku – w głównym języku używanym w Etiopii.

W oświadczeniu Facebooka można przeczytać, że Etiopia jest „jedynym z naszych najwyższych priorytetów dotyczących specyficznych interwencji, w celu utrzymania bezpieczeństwa ludzi”. W materiale prasowym znajdujemy zapewnienia, że gigant technologiczny przez ponad 2 lata inwestował w bezpieczeństwo, „w tym budowanie naszej zdolności do wyłapania nienawistnych i podżegających treści w językach, które są używane najczęściej w kraju (Etiopii)”. Działania te miały się oprzeć o zatrudnienie większej ilości pracowników, którzy mówią po amharsku oraz o rozwinięcie technologii do automatycznego rozpoznawania mowy nienawiści w tym języku. Facebook twierdzi, że ich wysiłki są „wiodące w branży”. Przyjrzyjmy się śledztwu przeprowadzonemu przez wspomniane NGOsy.

Celem tego dochodzenia było sprawdzenie, jak ten „wiodący w branży” Facebook jest sprawny w wykrywaniu mowy nienawiści i czy ich środki bezpieczeństwa są w stanie zapobiegać rozprzestrzenianiu się treści napędzających przemoc.

Nie pomiń naszych istotnych materiałów
Zapisz się do grupy na ulubionym komunikatorze

Organizacje te zbadały szereg przykładów mowy nienawiści w języku amharskim i z pomocą Mekonnena wybrały 12 najgorszych z nich. Przykłady mowy nienawiści uzyskano m.in. od grup, które dokumentują mowę nienawiści na Facebook w Etiopii (prowadzą archiwizację, robią zrzuty ekranu i zgłaszają je do platformy).

Treści te zostały użyte do reklam, które miały się pojawić na Facebook, a organizacje czekały, czy algorytm je odrzuci, czy zaakceptuje. Reklamy miały formę obrazu (tekst na zwykłym tle) i nie były oznaczone jako mające charakter polityczny. Przed wysłaniem reklam do akceptacji, wszystkie przejawy mowy nienawiści zostały zgłoszone do Facebook jako naruszające ich standardy społecznościowe i faktycznie większość z nich została usunięta (jednakże 5 z 12 w dalszym ciągu jest dostępne na Facebook). W dochodzeniu użyto równej liczny przykładów mowy nienawiści skierowanej do trzech głównych grup etnicznych w kraju – Amharów, Oromo i Tigrajczyków.

Oczywiście w rzeczywistości reklamy nie zostały opublikowane – organizacje ustawiły datę publikacji na bardzo odległy termin i zostały one usunięte przed wskazaną w formularzu reklamowym datą – po otrzymaniu wyników weryfikacji reklamy. Jak się domyślacie, wszystkie 12 reklam zostało zaakceptowanych przez Facebook do publikacji.

Ustalenia dochodzenia zostały przedstawione Facebook, aby dać gigantowi możliwość przedstawienia swojej wersji tej historii. W odpowiedzi otrzymano potwierdzenie, że faktycznie takie reklamy nie powinny być zatwierdzone i znów podkreślono, że zainwestowano duże środki w bezpieczeństwo Etiopii poprzez zatrudnienie większej ilości pracowników z lokalnym doświadczeniem… Bla, bla, bla. PR-owski bełkot.

Po poinformowaniu Facebook o poważnym problemie związanym z moderacją treści w Etiopii oraz przyznaniu przez rzecznika, że reklamy „nie powinny być w ogóle zatwierdzone, ponieważ naruszają nasze zasady”, organizacje złożyły kolejne dwie reklamy oparte o dalsze przykłady mowy nienawiści wzięte z tego serwisu społecznościowego i ponownie – obie reklamy, w ciągu kilku godzin, zostały zaakceptowane do publikacji przez Facebook.

Wykorzystane teksty w reklamach są przykładami wysoce obraźliwych aktów nienawiści, stąd organizacje w swoim raporcie pominęły dosłowne cytaty i udostępniają ich treść na życzenie (można napisać do nich w tej sprawie na adres: digitalthreats@globalwitness.org). Użyte zdania zawierały wezwania do zabijania, zagłodzenia, a także „oczyszczania” danego obszaru z ludzi oraz mowę mającą charakter dehumanizujący, która porównuje ludzi do zwierząt. Kilka z nich miało wydźwięk równoznaczny z wzywaniem do ludobójstwa. Żadne z wykorzystanych zdań nie było modyfikowane i nie były trudne do interpretacji.

Gdyby te reklamy zostały faktycznie opublikowane naruszyłyby nie tylko standardy Facebook dotyczące mowy nienawiści, ale również naruszałyby Międzynarodową Konwencję w sprawie likwidacji wszelkich form dyskryminacji rasowej.

Pojawia się pytanie, dlaczego organizacje zdecydowały się na takie dochodzenie. Zgłaszanie mowy nienawiści w formie reklamy pozwala przetestować zdolność Facebook do wykrywania takiej mowy, bez konieczności faktycznego umieszczania takich wpisów w przestrzeni Facebook.

Facebook mówi dalej, że zanim reklamy zostają dopuszczone do wyświetlania online, są one recenzowane, aby upewnić się, że spełniają postanowienia ich polityki reklamowej, i że w trakcie tego procesu recenzenci mogą sprawdzić “obrazy, wideo, tekst i powiązaną stronę docelową”. W rzeczywistości, Facebook stwierdza, że posiada w stosunku do reklam “nawet bardziej rygorystyczne standardy”. Uzasadnione jest zatem stwierdzenie, że jeśli nie są w stanie wykryć mowy nienawiści i nawoływania do zabijania w reklamach, to jeszcze mniej prawdopodobne, że będą w stanie tego dokonać przy publikowaniu organicznych postów przez całe masy ludzi.

Oprócz oburzenia i – bądźmy szczerzy – kolejnej żenującej sytuacji ze strony giganta mediów społecznościowych, pojawiają się także zalecenia. Czy będą one miał odzwierciedlenie w realnych zmianach? Zobaczymy.

Przemawiając do Kongresu USA w lipcu 2020 rok, Mark Zuckerberg powiedział, że „w zakresie walki z nienawiścią zbudowaliśmy naprawdę wyrafinowane systemy”.

Facebook i inne platformy mediów społecznościowych powinny podchodzić do rozpoznawania mowy nienawiści w bardziej pilny i dokładny sposób. Nie jest to pierwszy raz, kiedy Global Witness sprawdził Facebook – na początku 2022 roku identyczna sytuacja dotyczyła reklam w języku birmańskim i mowie nienawiści skierowanej przeciwko mniejszości Rohingya.

Jeśli nie będzie lepszej analizy języków używanych lokalnie, to istnieje realne ryzyko, że w konsekwencji ludzie faktycznie będą zabijani. Niestety nie jest to przesadne stwierdzenie – przy okazji ludobójstwa w Myanmarze, Facebook przyznał, że odegrał rolę w podżeganiu do przemocy. Frances Haugen – wspomniana sygnalistka i demaskatorka wadliwych działań Facebook – powiedziała na spotkaniu z amerykańskimi senatorami, że „to, co widzieliśmy w Myanmarze i teraz widzimy w Etiopii, to tylko początkowe rozdziały historii tak przerażającej, że nikt nie chce jej czytać do końca”.

Birmański i amharski są językami, które jednak są głównymi językami używanymi w swoich krajach, więc powinny być stosunkowo łatwymi testami dla giganta. W tych krajach mówi się wieloma różnymi językami, więc jeśli istnieją tak wadliwe oceny mowy nienawiści w głównych językach, to tylko możemy sobie wyobrazić, jak źle sytuacja wygląda jeśli chodzi o języki mniejszości.

Organizacje wezwały Facebook do właściwej moderacji treści we wszystkich krajach, w których dostępny jest ten serwis społecznościowy, w tym do zapewnienia moderatorom godziwego wynagrodzenia za ich pracę, umożliwienia zrzeszania się w związkach zawodowych oraz wsparcia psychologicznego dotyczącego zwłaszcza pracy z treściami pełnymi nienawiści.

Istotnym aspektem byłoby przeprowadzenie oceny ryzyka możliwych działań na Facebook, które mogą mieć wpływ na łamanie praw człowieka i innych szkód, które mogą być wyrządzone na poziomie społecznym. Taka informacja powinna być oficjalnie opublikowana wraz z listą kroków, które zostały podjęte, aby zapewnić użytkownikom ochronę przed nienawiścią w tym medium społecznościowym.

Ten nieco utopijny pomysł (w końcu nie oszukujmy się, Facebook jako prywatne przedsiębiorstwo traktuje użytkowników jak produkty, a reklamodawców darzy specjalnymi względami), nie ma szans wejść w życie, dopóki rząd Stanów Zjednoczonych nie podąży przykładem Unii Europejskiej, jeśli chodzi o regulacje dotyczące firm BigTech i nie wymusi na nich nadzoru nad swoimi produktami oferowanymi obywatelom. W przeciwnym wypadku mowa nienawiści online będzie dalej rozkwitać.

Sprawa nie jest tylko lokalna na oddalonym od nas afrykańskim i azjatyckim lądzie. W Polsce również mamy obywateli, którzy uważają, że ograniczanie mowy nienawiści jest jednoznaczne z ograniczaniem wolności słowa. A potem się dziwią, że Facebook po raz kolejny blokuje im konta, a przecież to taka wolnościowa partia…

Źródło: Global Witness Grafika: Getty Images

Uważasz, że to istotny temat? Podziel się nim ze znajomymi.
Facebook
Twitter
LinkedIn
WhatsApp
Telegram
Email
CZY DLA CIEBIE RÓWNIEŻ JEST
WAŻNE TO O CZYM CZYTASZ?

Nigdy nie było ważniejszego czasu, aby edukować społecznie

ORION Organizacja Społeczna tworzy Publikacje dla osób, które cenią wiedzę opartą na dowodach i sprawdzonych źródłach. Naszym celem jest budowanie świadomego społeczeństwa, dlatego nasze materiały zawsze będą z darmowym dostępem. Jeśli możesz wesprzyj nas dzisiaj, przekazując darowiznę, którą możesz odliczyć od podatku oraz udostępniaj nasze Publikacje swoim przyjaciołom.

TAGI

Numer konta (Nest Bank)

92 2530 0008 2041 1071 3655 0001