„Czas na zabijanie”. Facebook zezwala na reklamy zawierające mowę nienawiści podczas wojny domowej w Etiopii

blank

Nie jest to sytuacja tak bliska jak wojna w Ukrainie, jednakże od 2020 roku w Etiopii trwa wojna domowa, która zbiera okrutne żniwo. W konflikcie tym giną tysiące ludzi, a miliony są zmuszone do opuszczenia swoich domów. Wokół tej wojny pojawia się wiele wiarygodnych oskarżeń o zbrodnie wojenne. O całej sytuacji wiemy, m.in. dzięki sygnalistce Frances Haugen, która nazwała sytuację po prostu „przemocą etniczną”.

Sytuacja w Etiopii jest dodatkowo trudna ze względu na fakt, że media społecznościowe i dostęp do sieci nie są tak wykorzystywane jak przy okazji doniesień z frontu w Ukrainie. Dwie organizacje pozarządowe – Global Witness oraz Foxglove (organizacja prawnicza) wraz z niezależnym badaczem Dagimem Afeworkiem Mekonnenem, przeprowadziły śledztwo, w którym wykazały, jak słabe są algorytmy Facebooka w wykrywaniu mowy nienawiści i to prowadzonej po amharsku – w głównym języku używanym w Etiopii.

W oświadczeniu Facebooka można przeczytać, że Etiopia jest „jedynym z naszych najwyższych priorytetów dotyczących specyficznych interwencji, w celu utrzymania bezpieczeństwa ludzi”. W materiale prasowym znajdujemy zapewnienia, że gigant technologiczny przez ponad 2 lata inwestował w bezpieczeństwo, „w tym budowanie naszej zdolności do wyłapania nienawistnych i podżegających treści w językach, które są używane najczęściej w kraju (Etiopii)”. Działania te miały się oprzeć o zatrudnienie większej ilości pracowników, którzy mówią po amharsku oraz o rozwinięcie technologii do automatycznego rozpoznawania mowy nienawiści w tym języku. Facebook twierdzi, że ich wysiłki są „wiodące w branży”. Przyjrzyjmy się śledztwu przeprowadzonemu przez wspomniane NGOsy.

Celem tego dochodzenia było sprawdzenie, jak ten „wiodący w branży” Facebook jest sprawny w wykrywaniu mowy nienawiści i czy ich środki bezpieczeństwa są w stanie zapobiegać rozprzestrzenianiu się treści napędzających przemoc.

Organizacje te zbadały szereg przykładów mowy nienawiści w języku amharskim i z pomocą Mekonnena wybrały 12 najgorszych z nich. Przykłady mowy nienawiści uzyskano m.in. od grup, które dokumentują mowę nienawiści na Facebook w Etiopii (prowadzą archiwizację, robią zrzuty ekranu i zgłaszają je do platformy).

Treści te zostały użyte do reklam, które miały się pojawić na Facebook, a organizacje czekały, czy algorytm je odrzuci, czy zaakceptuje. Reklamy miały formę obrazu (tekst na zwykłym tle) i nie były oznaczone jako mające charakter polityczny. Przed wysłaniem reklam do akceptacji, wszystkie przejawy mowy nienawiści zostały zgłoszone do Facebook jako naruszające ich standardy społecznościowe i faktycznie większość z nich została usunięta (jednakże 5 z 12 w dalszym ciągu jest dostępne na Facebook). W dochodzeniu użyto równej liczny przykładów mowy nienawiści skierowanej do trzech głównych grup etnicznych w kraju – Amharów, Oromo i Tigrajczyków.

Oczywiście w rzeczywistości reklamy nie zostały opublikowane – organizacje ustawiły datę publikacji na bardzo odległy termin i zostały one usunięte przed wskazaną w formularzu reklamowym datą – po otrzymaniu wyników weryfikacji reklamy. Jak się domyślacie, wszystkie 12 reklam zostało zaakceptowanych przez Facebook do publikacji.

Ustalenia dochodzenia zostały przedstawione Facebook, aby dać gigantowi możliwość przedstawienia swojej wersji tej historii. W odpowiedzi otrzymano potwierdzenie, że faktycznie takie reklamy nie powinny być zatwierdzone i znów podkreślono, że zainwestowano duże środki w bezpieczeństwo Etiopii poprzez zatrudnienie większej ilości pracowników z lokalnym doświadczeniem… Bla, bla, bla. PR-owski bełkot.

Po poinformowaniu Facebook o poważnym problemie związanym z moderacją treści w Etiopii oraz przyznaniu przez rzecznika, że reklamy „nie powinny być w ogóle zatwierdzone, ponieważ naruszają nasze zasady”, organizacje złożyły kolejne dwie reklamy oparte o dalsze przykłady mowy nienawiści wzięte z tego serwisu społecznościowego i ponownie – obie reklamy, w ciągu kilku godzin, zostały zaakceptowane do publikacji przez Facebook.

Wykorzystane teksty w reklamach są przykładami wysoce obraźliwych aktów nienawiści, stąd organizacje w swoim raporcie pominęły dosłowne cytaty i udostępniają ich treść na życzenie (można napisać do nich w tej sprawie na adres: digitalthreats@globalwitness.org). Użyte zdania zawierały wezwania do zabijania, zagłodzenia, a także „oczyszczania” danego obszaru z ludzi oraz mowę mającą charakter dehumanizujący, która porównuje ludzi do zwierząt. Kilka z nich miało wydźwięk równoznaczny z wzywaniem do ludobójstwa. Żadne z wykorzystanych zdań nie było modyfikowane i nie były trudne do interpretacji.

Gdyby te reklamy zostały faktycznie opublikowane naruszyłyby nie tylko standardy Facebook dotyczące mowy nienawiści, ale również naruszałyby Międzynarodową Konwencję w sprawie likwidacji wszelkich form dyskryminacji rasowej.

Pojawia się pytanie, dlaczego organizacje zdecydowały się na takie dochodzenie. Zgłaszanie mowy nienawiści w formie reklamy pozwala przetestować zdolność Facebook do wykrywania takiej mowy, bez konieczności faktycznego umieszczania takich wpisów w przestrzeni Facebook.

Facebook mówi dalej, że zanim reklamy zostają dopuszczone do wyświetlania online, są one recenzowane, aby upewnić się, że spełniają postanowienia ich polityki reklamowej, i że w trakcie tego procesu recenzenci mogą sprawdzić “obrazy, wideo, tekst i powiązaną stronę docelową”. W rzeczywistości, Facebook stwierdza, że posiada w stosunku do reklam “nawet bardziej rygorystyczne standardy”. Uzasadnione jest zatem stwierdzenie, że jeśli nie są w stanie wykryć mowy nienawiści i nawoływania do zabijania w reklamach, to jeszcze mniej prawdopodobne, że będą w stanie tego dokonać przy publikowaniu organicznych postów przez całe masy ludzi.

Oprócz oburzenia i – bądźmy szczerzy – kolejnej żenującej sytuacji ze strony giganta mediów społecznościowych, pojawiają się także zalecenia. Czy będą one miał odzwierciedlenie w realnych zmianach? Zobaczymy.

Przemawiając do Kongresu USA w lipcu 2020 rok, Mark Zuckerberg powiedział, że „w zakresie walki z nienawiścią zbudowaliśmy naprawdę wyrafinowane systemy”.

Facebook i inne platformy mediów społecznościowych powinny podchodzić do rozpoznawania mowy nienawiści w bardziej pilny i dokładny sposób. Nie jest to pierwszy raz, kiedy Global Witness sprawdził Facebook – na początku 2022 roku identyczna sytuacja dotyczyła reklam w języku birmańskim i mowie nienawiści skierowanej przeciwko mniejszości Rohingya.

Jeśli nie będzie lepszej analizy języków używanych lokalnie, to istnieje realne ryzyko, że w konsekwencji ludzie faktycznie będą zabijani. Niestety nie jest to przesadne stwierdzenie – przy okazji ludobójstwa w Myanmarze, Facebook przyznał, że odegrał rolę w podżeganiu do przemocy. Frances Haugen – wspomniana sygnalistka i demaskatorka wadliwych działań Facebook – powiedziała na spotkaniu z amerykańskimi senatorami, że „to, co widzieliśmy w Myanmarze i teraz widzimy w Etiopii, to tylko początkowe rozdziały historii tak przerażającej, że nikt nie chce jej czytać do końca”.

Birmański i amharski są językami, które jednak są głównymi językami używanymi w swoich krajach, więc powinny być stosunkowo łatwymi testami dla giganta. W tych krajach mówi się wieloma różnymi językami, więc jeśli istnieją tak wadliwe oceny mowy nienawiści w głównych językach, to tylko możemy sobie wyobrazić, jak źle sytuacja wygląda jeśli chodzi o języki mniejszości.

Organizacje wezwały Facebook do właściwej moderacji treści we wszystkich krajach, w których dostępny jest ten serwis społecznościowy, w tym do zapewnienia moderatorom godziwego wynagrodzenia za ich pracę, umożliwienia zrzeszania się w związkach zawodowych oraz wsparcia psychologicznego dotyczącego zwłaszcza pracy z treściami pełnymi nienawiści.

Istotnym aspektem byłoby przeprowadzenie oceny ryzyka możliwych działań na Facebook, które mogą mieć wpływ na łamanie praw człowieka i innych szkód, które mogą być wyrządzone na poziomie społecznym. Taka informacja powinna być oficjalnie opublikowana wraz z listą kroków, które zostały podjęte, aby zapewnić użytkownikom ochronę przed nienawiścią w tym medium społecznościowym.

Ten nieco utopijny pomysł (w końcu nie oszukujmy się, Facebook jako prywatne przedsiębiorstwo traktuje użytkowników jak produkty, a reklamodawców darzy specjalnymi względami), nie ma szans wejść w życie, dopóki rząd Stanów Zjednoczonych nie podąży przykładem Unii Europejskiej, jeśli chodzi o regulacje dotyczące firm BigTech i nie wymusi na nich nadzoru nad swoimi produktami oferowanymi obywatelom. W przeciwnym wypadku mowa nienawiści online będzie dalej rozkwitać.

Sprawa nie jest tylko lokalna na oddalonym od nas afrykańskim i azjatyckim lądzie. W Polsce również mamy obywateli, którzy uważają, że ograniczanie mowy nienawiści jest jednoznaczne z ograniczaniem wolności słowa. A potem się dziwią, że Facebook po raz kolejny blokuje im konta, a przecież to taka wolnościowa partia…

Źródło: Global Witness Grafika: Getty Images

Śledź nasz kanał na Telegramie

z materiałami niepublikowanymi na naszej stronie
blank

Alan O. Grinde

Animator i manager kultury. Koordynator projektów w ORION Organizacja Społeczna. Grafik, web designer, lektor, specjalista od audio masteringu.
blank
ORION Organizacja Społeczna
ul. Hoża 86 lok. 410
00-682 Warszawa
Email: orionfm@yahoo.com
KRS: 0000499971
NIP: 7123285593
REGON: 061657570
Konto. Nest Bank:
92 2530 0008 2041 1071 3655 0001
Wszystkie treści publikowane w serwisie są udostępniane na licencji Creative Commons: uznanie autorstwa - użycie niekomercyjne - bez utworów zależnych 4.0 Polska (CC BY-NC-ND 4.0 PL), o ile nie jest to stwierdzone inaczej.