Zlyhania Mety prispeli k porušovaniu práv v Etiópii

Amnesty International dnes (31. októbra 2023) vydala výskumnú správu s názvom „Rozsudok smrti pre môjho otca“. Organizácia sa v správe venuje úlohe spoločnosti Meta pri porušovaní ľudských práv tigrajskej komunity v Etiópii. Podľa správy Meta na jej platforme Facebook opäť nedokázala primerane obmedziť šírenie škodlivého obsahu, nenávisti a podnecovania k násiliu. Obeťou tohto zlyhania bola tentoraz populácia etiópskeho štátu Tigraj. K porušovaniu práv došlo počas ozbrojeného konfliktu v severnej Etiópii v období od novembra 2020 do novembra 2022. Správa prichádza len niekoľko mesiacov po tom, ako Amnesty vyzvala spoločnosť Meta na bezodkladné odškodnenie Rohingov za úlohu, ktorú zohrala jej sociálna sieť Facebook pri etnických čistkách v Mjanmarsku.

„Tri roky po tom, ako ohromujúco zlyhala v Mjanmarsku, spoločnosť Meta opäť prispela k závažnému porušovaniu ľudských práv. Opäť k tomu došlo kvôli algoritmom uprednostňujúcim negatívny obsah. Ešte pred vypuknutím konfliktu v severnej Etiópii organizácie občianskej spoločnosti a odborníci na ľudské práva opakovane varovali, že obchodný model spoločnosti Meta môže prispieť k násiliu v krajine. Organizácie spoločnosť vyzvali, aby prijala zmysluplné opatrenia na prevenciu tohto rizika,“ uviedla generálna tajomníčka Amnesty International Agnès Callamard.

Spoločnosť Meta ignorovala varovania  [ľudskooprávnych organizácií] a ani po vypuknutí konfliktu neprijala primerané opatrenia na zmiernenie následkov  [svojho obchodného modelu]. V dôsledku toho Meta opäť prispela k závažnému porušovaniu ľudských práv, tentoraz páchanému na tigrajskej komunite.

Agnès Callamard, generálna tajomníčka Amnesty International

Meta o potenciálnych rizikách vedela a dlhodobo ich neriešila

Platforma Facebook je pre mnohých obyvateľov a obyvateľky Etiópie hlavným zdrojom informácií a považuje sa za dôveryhodný zdroj správ. Algoritmy Facebooku však počas ozbrojeného konfliktu posilňovali viditeľnosť škodlivého obsahu, ktorý démonizoval tigrajskú komunitu, čím prispeli k šíreniu nenávisti a podnecovaniu násilia. Výskum Amnesty International dokázal, že okrem algoritmov zlyhali aj systémy moderovania obsahu. Tie nedokázali odhaliť škodlivý obsah a primerane naň reagovať.

Tieto zlyhania prispeli aj k zabitiu univerzitného profesora, akademického chemika Mearega Amareho. Amareho zabila skupina mužov po tom, ako sa 3. novembra 2021 na Facebooku objavili príspevky namierené proti jeho osobe. Príspevky na Facebooku obsahovali jeho meno, fotografiu, informáciu o jeho pracovisku a adresu domu. Autori príspevkov tvrdili, že Amare je stúpencom Tigrajského ľudového oslobodzovacieho frontu (TPLF) a obviňovali ho z krádeže veľkých súm peňazí. Jeho rodina tieto obvinenia poprela.

Interné štúdie spoločnosti Facebook z roku 2012 naznačujú, že spoločnosť mala podozrenie, že jej algoritmy môžu viesť k vážnym škodám. Interný výskum spoločnosti Meta z roku 2016 jasne hovorí, že ich „(systémy) odporúčaní pestujú problém“ extrémizmu. Interný dokument z roku 2020 upozorňuje, že „súčasné stratégie zmierňovania následkov nestačia“ na zastavenie šírenia škodlivého obsahu na platforme Facebook v Etiópii.

Ako človek, ktorý v Etiópii pôsobí už dlhší čas, môžem povedať, že Facebook zvyšuje zraniteľnosť komunít v prebiehajúcich vzájomných konfliktoch. Na veci reagujú [vývojári Facebooku] veľmi pomaly. Nie sú citliví na to, čo sa hovorí. Myslím si, že ich normy sú veľmi vzdialené od toho, čo sa na mieste skutočne deje

Gelila, aktérka občianskej spoločnosti v Etiópii

Nahlasovanie a moderovanie obsahu nie je dostačujúce

Popri posilňovaní škodlivého obsahu vzbudila spoločnosť Meta dlhou reakčnou dobou a odmietaním odstrániť nahlásený obsah vo viacerých ľuďoch, s ktorými sa Amnesty International rozprávala, pocit, že nahlasovanie obsahu spoločnosti nemá zmysel. Pred vypuknutím konfliktu aj počas neho spoločnosť na nedostatky upozorňovalo viacero organizácií občianskej spoločnosti aj odborníkov na ľudské práva. Dozorná rada Facebooku v roku 2021 spoločnosti Meta odporučila, aby vykonala nezávislé posúdenie vplyvu svojich činností na ľudské práva v Etiópii.

Masové šírenie týchto príspevkov podnecovalo násilie a diskrimináciu zameranú na tigrajskú komunitu. Podľa Agnès Callamard to len prilialo olej do ohňa v už aj tak napätej situácii.

*Gelila (fiktívne meno v záujme ochrany súkromia a bezpečnosti), aktérka etiópskej občianskej spoločnosti, bola súčasťou programu Meta s názvom Dôveryhodný partner. Dôveryhodný partner je iniciatíva, ktorej cieľom je poskytnúť vybraným skupinám občianskej spoločnosti špecifický kanál, cez ktorý môžu spoločnosť Meta upozorniť na akýkoľvek škodlivý obsah. Podľa Gelily je viedla nečinnosť spoločnosti Facebook k zhoršeniu ľudskoprávnej situácie v krajine.

„Ako človek, ktorý v Etiópii pôsobí už dlhší čas, môžem povedať, že Facebook zvyšuje zraniteľnosť komunít v prebiehajúcich vzájomných konfliktoch. Na veci reagujú [vývojári Facebooku] veľmi pomaly. Nie sú citliví na to, čo sa hovorí. Myslím si, že ich normy sú veľmi vzdialené od toho, čo sa na mieste skutočne deje,“ uviedla Gelila.

Amnesty vyzýva spoločnosť Meta, aby urýchlene prijala opatrenia na zmiernenie rizík, ktoré prináša platforma Facebook v Etiópii. Krajina dnes čelí ďalšej bezpečnostnej kríze v regióne Amhara. Tieto zmeny sú nevyhnutné na predchádzanie budúcich zločinov vrátane genocídy. Na riziko genocídy v regiónoch Tigraj, Amhara, Afar a Oromiana upozornili aj vyšetrovatelia OSN a osobitný poradca OSN pre prevenciu genocídy.

Zistite viac o našej práci