3. novembra 2021 sledovali etiópskeho akademika Mearega Amare Abrhu z univerzity domov ozbrojení muži na motorkách. Zastrelili ho, keď sa pokúšali dostať do rodinného domu. Hrozby zo strany útočníkov zabránili svedkom, aby mu pomohli. Zomrel na zemi o sedem hodín neskôr. „Pred útokom mali byť na Facebooku zverejnené príspevky, ktoré ho mali ohovárať a odhaľovať o ňom identifikačné informácie,“ hovorí jeho syn Abrham Meareg.
Napriek opakovaným sťažnostiam pomocou nástroja na podávanie správ Facebooku platforma „ponechala tieto príspevky, kým nebolo príliš neskoro“. Jeden bol odstránený po zabití jeho otca. Ďalší, ktorý sa platforma zaviazala odstrániť, zostal online do 8. decembra 2022. Aj preto sa syn zastreleného profesora rozhodol pripojiť k žalobe proti Mete. „Keby Facebook zastavil šírenie nenávisti a správne moderoval príspevky, môj otec by stále žil,“ povedal Meareg.
V čestnom vyhlásení podanom na súde pán Meareg tvrdí, že algoritmus Facebooku propaguje „nenávistný a podnecujúci“ obsah, pretože práve taký pravdepodobne pritiahne viac interakcií od používateľov. Tvrdí, že moderovanie obsahu Facebooku v Afrike je „žalostne nedostatočné“ s príliš malým počtom moderátorov, ktorí sa zaoberajú príspevkami v kľúčových jazykoch amharčina, oromčina a tigriňa uvádza BBC.
Ďalšími žalobcami v prípade sú Inštitút Katiba a výskumník z Amnesty International Fisseha Tekle, ktorý tvrdí, že zlyhania Facebooku v moderovaní znemožnili jeho podávanie správ o ľudských právach o konflikte v Etiópii. Žiadajú, aby súd nariadil Facebooku podniknúť kroky na nápravu situácie, vrátane vytvorenia reštitučného fondu vo výške približne 1,6 miliardy eur.
Tie majú byť pre obete nenávisti a násilia podnecovaného na Facebooku a ďalších pol miliardy za podobnú ujmu zo sponzorovaných príspevkov. Ďalej chcú, aby opravili algoritmus, ktorý odporúča „podnecujúci, nenávistný a nebezpečný obsah“. Poslednou zmenou by malo byť zamestnávanie dostatočného počtu moderátorov na preklad miestneho obsahu, čím sa zabezpečí rovnosť medzi moderovaním v Nairobi a používateľmi v USA.
Meta uviedla, že investovala veľa do moderovania a technológií na odstránenie nenávisti. Ich zástupca uviedol, že nenávistné prejavy a podnecovanie k násiliu sú v rozpore s pravidlami platformy.
„Naša práca v oblasti bezpečnosti a integrity v Etiópii sa riadi spätnou väzbou od miestnych organizácií občianskej spoločnosti a medzinárodných inštitúcií,“ uviedol zástupca. „Zamestnávame zamestnancov s miestnymi znalosťami a odbornými znalosťami a naďalej rozvíjame naše schopnosti zachytiť porušujúci obsah v najrozšírenejších jazykoch v krajine vrátane amharčiny,“ informoval zástupca Meta pre BBC News.
Nie je to však prvýkrát, čo bol Facebook obvinený z toho, že robí príliš málo na zastavenie šírenia obsahu propagujúceho etnickú nenávisť a násilie v Etiópii. V roku 2021 informátorka a bývalá zamestnankyňa Frances Haugenová povedala americkému Senátu, že algoritmus platformy „rozdúchava etnické násilie, produkuje extrémne názory a rozkol,“ keďže tieto príspevky priťahujú veľkú angažovanosť, zatiaľ čo Facebook nedokázal adekvátne identifikovať nebezpečný obsah.
V konflikte medzi etiópskou vládou a silami v severnom regióne Tigraj zahynuli státisíce ľudí, pričom 400-tisíc ďalších žije v podmienkach podobných hladomoru. Minulý mesiac bola dohodnutá prekvapivá mierová dohoda. Nedávno však došlo k nárastu etnicky motivovaných vrážd medzi komunitami hovoriacimi amharsky a oromsky.