Previous Slide Icon Next Slide Icon
Play Daily Button Pause Daily Button
Exit Daily Button

Czy Facebook odegrał rolę w wojnie domowej w Etiopii?

Skutki kiepskiej moderacji Facebooka bywają naprawdę tragiczne.
.get_the_title().

Meareg Amare był profesorem chemii wykładającym na etiopskim uniwersytecie Bahir Dar oraz aktywistą. 3 listopada 2021 roku został zastrzelony przed wejściem do swego domu. Zanim do tego doszło, mężczyzna stał się ofiarą kampanii nienawiści na Facebooku. Najpierw został oskarżony o kradzież uczelnianego sprzętu, sprzedanie go i kupienie nieruchomości za uzyskane w ten sposób pieniądze, a następnie na portalu Marka Zuckerberga zaczęto mu grozić śmiercią. W rzeczywistości nie chodziło jednak o żaden sprzęt z uczelni. Amare należał do Tigrajczyków – to jedna z grup etnicznych zamieszkujących Etiopię. Od listopada 2020 do listopada 2022 w Etiopii trwała wojna domowa, której efektem były właśnie czystki etniczne w zbuntowanym Tigraju. W konflikcie zginęły setki tysięcy osób, a niemal 400 tys. głoduje.

Syn profesora, Abrham Amare jest zdania, że istotną rolę w wojnie domowej odegrał Facebook. To właśnie tam podżegano do nienawiści, której tragiczne efekty można było zobaczyć na ulicach.

Amare wraz z innymi osobami wnosi do sądu najwyższego w Kenii sprawę przeciwko Meta, domagając się utworzenia funduszu o wartości 2 mld dolarów dla ofiar mowy nienawiści oraz zmian w algorytmie platformy.

fot. cnn

Zatrudniamy pracowników posiadających lokalną wiedzę i doświadczenie i nadal rozwijamy nasze możliwości w zakresie wyłapywania naruszających prawo treści w najczęściej używanych językach w kraju, w tym w języku amharskim, oromo, somalijskim i tigrinia – tłumaczy rzecznik Meta. Oczywiście twierdzi, że firma dba o to, by na Facebooku nie było mowy nienawiści – zakazała jej w regulaminie, inwestuje w moderację i technologię. Ale każdy, kto kiedykolwiek próbował zgłaszać obraźliwe wypowiedzi do Facebooka wie, że ten system nie jest idealny. W Afryce działa jeszcze gorzej. Centrum moderacji treści znajduje się w stolicy Kenii, czyli Nairobi. I już tu zaczynają się schody, bo w samej Kenii jest 80 języków.

Tymczasem biuro Facebooka w Nairobi do sprawdzania treści publikowanych przez 6 mln użytkowników portalu ma zaledwie… 25 osób. Siłą rzeczy nie da się tego sprawdzić.

A jak wygląda sytuacja w Etiopii? Najpopularniejszymi językami jest tam oromo i amharski. Tymczasem klasyfikatory treści w tych językach nie istnieją, więc trudno, by moderatorzy wiedzieli, które posty mogą stanowić zagrożenie. Wyjątkiem są oczywiście grafiki czy zdjęcia, które w oczywisty sposób łamią regulamin. Co ciekawe, Meta zdaje sobie również sprawę z tego, że nie za dobrze wywiązuje się ze swoich obowiązków w Etiopii – niedawno wyciekły dokumenty przedstawiające ubiegłoroczny plan działania, w którym firma uznała ten kraj za wysoce zagrożony przemocą. W tym samym raporcie stwierdziła również, że… niewiele z tym może zrobić.

To, że Meta i inne platformy społecznościowe robią za mało, by zapobiegać dezinformacji i szerzeniu mowy nienawiści wobec różnych grup etnicznych, staje się niemal oczywiste – nawet usuwanie oflagowanych przez użytkowników treści często trwa zwyczajnie za długo. A negatywne efekty rozpowszechniania tego rodzaju informacji często są namacalne i tragiczne.

Zdjęcie główne: Washington Post
Tekst: NS

TU I TERAZ