Denník N

Admini majú len pár sekúnd na príspevok, pravidlá sú nejasné. Ako Facebook posudzuje obsah?

Facebook zamestná ďalších 3000 ľudí, aby kontrolovali nevhodný obsah na sociálnej sieti. Odmieta však hovoriť o tom, ako presne nevhodné príspevky posudzujú.

Čo sa stane, keď nahlásite Facebooku, že je nejaký príspevok podľa vás nevhodný a mal by byť zmazaný? Posúdi vaše nahlásenie len počítačový algoritmus? Nie.

Posudzujú takéto nahlásenia len nejakí administrátori kdesi v Indii? Nie.

Pomôže vám, ak presvedčíte viac ľudí, aby daný príspevok tiež nahlásili? Nie.

Zmenil Facebook niečo, pre čo prišli kotlebovci v apríli o veľkú časť svojich facebookových stránok? Nie.

Môžeme si byť vyššie uvedenými odpoveďami absolútne istí? Nie.

Zamestnanci Facebooku dlhodobo odmietajú prezradiť, ako ich sociálna sieť posudzuje problematický obsah na svojich stránkach. Ich odpovede sú nekonkrétne a vyhýbavé. Z rôznych náznakov a indícií, ktoré sa v posledných mesiacoch dostali na verejnosť, sme sa však pokúsili popísať, ako sa Facebook rozhoduje, ako postupuje pri nenávistných príspevkoch a prečo kopí chyby.

Na počte nahlásení nezáleží

Keď vo februári Denník N zmapoval 140 facebookových stránok, ktoré v tom čase ovládali kotlebovci, nik netušil, že o pár týždňov sa veľká časť ich mediálneho arzenálu rozpadne – 4. apríla Facebook dočasne zablokoval recesistickú stránku Zomri, ktorá často zosmiešňovala slovenských fašistov, a jej fanúšikovia spustili odvetu. Stránky ĽSNS postupne padali a dnes je ich nedostupných už 37. Je medzi nimi aj oficiálna stránka ĽSNS, ktorá mala vyše 80-tisíc fanúšikov, stránky Mariana Kotlebu, Milana Mazureka či Milana Uhríka.

Ak by sme zrátali počet fanúšikov, ktorý kotlebovci na zablokovaných stránkach mali, dostaneme sa k súhrnnému číslu vyše 313-tisíc. Nejde o počet unikátnych ľudí, len celkový počet fanúšikov, prekryv medzi týmito stránkami môže byť pomerne veľký. Napriek tomu ide o obrovské číslo a veľký úder pre marketing parlamentnej strany. Tá za mesiac prišla o viac ako polovicu fanúšikov.

Pomohlo to, že príspevky kotlebovcov nahlásilo naraz veľmi veľa ľudí, a tak boli viac na očiach administrátorov? Na to zástupcovia Facebooku priamo neodpovedali. Európskym mimovládkam však ešte vo februári tvrdili, že počet nahlásení nejakého profilu, stránky alebo príspevku nemá reálny vplyv.

„Každý report prechádza cez posudzovanie a je jedno, či to isté nahlási päť ľudí alebo jeden človek, rozhodnutie to nemení,“ povedala Mirka Grófová z Nadácie otvorenej spoločnosti, ktorá na stretnutí mimovládok s Facebookom bola. Dodáva, že ak je ten istý obsah nahlásený viackrát a administrátori opakovane rozhodnú, že je v poriadku, tak ďalšie nahlasovanie príspevku sa už k zamestnancom Facebooku nedostane. „Dostáva automaticky zamietavú odpoveď.“

Grófová sa v mene Nadácie otvorenej spoločnosti zúčastnila tréningu spolu s ďalšími zhruba päťdesiatimi ľuďmi z neziskoviek z celej Európy. Tréning sa zameral najmä na tému efektívnych kampaní a efektívnej komunikácie na Facebooku, ale účastníci sa dozvedeli niečo aj o tom, ako prebieha proces posudzovania nahlásených príspevkov.

Bloger Ján Benčík dostáva množstvo vyhrážok a agresívnych správ. Facebook v nich problém nevidí.

Nahlasovanie stránok a profilov je neefektívne

Z informácií, ktoré doposiaľ Facebook zverejnil, vyplýva, že omnoho efektívnejšie je nahlasovať problematické príspevky (statusy, obrázky, videá, odkazy) ako celý profil užívateľa alebo facebookovú stránku. „Ľudia, ktorí reporty vyhodnocujú, majú na jedno nahlásenie čas len v jednotkách sekúnd. Čiže nemajú čas zaoberať sa hlbším kontextom,“ hovorí Grófová. „Ak je nahlásená nejaká stránka alebo profil, tak v princípe posudzujú len to, či názov, profilová fotka, popis profilu a cover foto obsahujú niečo, čo porušuje ich štandardy. Už sa ale nedostávajú k samotnému obsahu, na to nemajú kapacity.“

Konkrétne príspevky administrátori vedia posúdiť rýchlejšie a ak sa ich pod jedným profilom nakopí viac, administrátori ho môžu celý zrušiť.

To sa zrejme stalo v apríli aj kotlebovcom. Keď veľa ľudí začalo nahlasovať ich príspevky, upozornili administrátorov aj na naozaj problematický obsah, ktorý bol zrejme dlhšie prehliadaný. Keď Facebook nejakej stránke zmazal v krátkom čase viac príspevkov pre porušovanie pravidiel, zablokoval rovno aj celú stránku.

Je to len hypotéza a či je naozaj správna, s istotou nevieme. Facebook je pri týchto otázkach absolútne netransparentný. Vlani v júni napríklad zablokoval viaceré stránky denníka SME. Hoci sa ich podarilo všetky obnoviť, redakcia dodnes nevie, aký bol dôvod zablokovania. „Facebook nám nikdy neposkytol žiadne stanovisko a netušíme ani v náznakoch, čo za zablokovaním mohlo byť,“ vraví šéfeditor webu sme.sk Tomáš Czwitkovics.

„Celú situáciu sa nám podarilo vyriešiť iba preto, že nám s tým pomohla jedna reklamná agentúra, ktorá má vo Facebooku obchodný kontakt,“ vysvetľuje Czwitkovics. „Postup Facebooku považujeme za o to nekorektnejší, že sme priamo komunikovali so zástupcami Facebooku aj PR reprezentatom, ktorí nám sľúbili, že problém budú riešiť.“

Facebook na tri dni zablokoval účet aktivistovi Jurajovi Smatanovi za kritický komentár na kotlebovcov.

Medzi adminmi sú aj Slováci, ale neposudzujú všetok slovenský obsah

Rozhodnutia Facebooku často pôsobia dojmom, akoby firma ani nemala administrátorov, ktorí ovládajú slovenčinu a rozumejú tunajšiemu kontextu. Facebook však tvrdí, že zamestnáva aj ľudí, ktorí vedia posúdiť príspevky písané v slovenčine. „Pracujeme tvrdo na tom, aby kontext všetkého nahláseného obsahu bol starostlivo posúdený, a práve preto máme tisícky ľudí pracujúcich po celom svete 24 hodín sedem dní v týždni. Sú pripravení pomôcť ľuďom, ktorí potrebujú našu pomoc vo vyše 30 jazykoch, vrátane ľudí hovoriacich po slovensky,“ odpovedal hovorca Facebooku pre strednú a východnú Európu.

Koľko ľudí zo Slovenska posudzuje nahlásený obsah? Kde sídlia? Vyhodnocujú všetky príspevky v slovenčine? Je možné sa s nimi osobne stretnúť? To sú otázky, na ktoré už spoločnosť neodpovedala, a pri ich pripomenutí poslala len vyhýbavé odpovede alebo vágne frázy.

Na stretnutiach s neziskovkami zástupcovia Facebooku hovorili, že slovenskí admini by mali sídliť v Dubline. „Slovenské príspevky posudzujú slovenskí moderátori. Podľa ich slov majú algoritmy, ktoré triedia všetky príspevky a určujú, komu bude priradený. Rozhodujú sa na základe viacerých faktorov, ako je krajina, ktorú máte v profile, jazyk, ktorý máte uvedený, jazyk profilu, ktorý je reportovaný… To sa vyhodnotí a následne sa príspevok priradí k človeku, ktorý by mal danému jazyku rozumieť,“ povedala Grófová.

Slovenskí administrátori neposudzujú všetok obsah v slovenčine, ale len príspevky, pri ktorých je jazyk príspevku kľúčový. Graficky znázornené násilie či obrázky so sexuálnym obsahom nie sú triedené podľa jazyka. S veľkou pravdepodobnosťou slovenskí administrátori nevyhodnocujú ani reálnosť niektorých účtov.

Kým napríklad vo Francúzsku Facebook nedávno zrušil 30-tisíc falošných účtov, ktoré šírili falošné správy, dezinformácie a spam, u nás prehliada aj evidentne falošné účty, ktoré vystupujú pod menami ako Ficovolič Prašivý či Soudružka Hodvábna. Facebook pri nahlásení takýchto účtov len odpíše, že profily neporušujú Normy komunity (Community Standards).

Zároveň ale Facebook robí problémy ľuďom, ktorí vystupujú pod svojimi pravými menami. „Jedného dňa sa Facebook rozhodol, že bude bojovať, aby ľudia mali svoje vlastné mená. Ako jedno z kritérií, podľa ktorého automat posúdi, že ide o vymyslené meno, bola kontrola znakov použitých v mene. Očividne si stanovili jednoduché pravidlo, že ak je užívateľ z nejakého štátu, tak jeho meno musí obsahovať len znaky z abecedy jazyka, ktorý je v tom štáte oficiálny,“ vysvetľuje Rado Ondřejíček, autor Cynickej obludy. „Takže keď našli v mojom mene ‚ř‘ a zistili, že v slovenčine ‚ř‘ nie je, vyhodnotili to ako falošný profil.“

Ondřejíček si musel zmeniť meno a rešpektovať pravidlo, že cudzie znaky nie sú povolené. Dnes teda vystupuje na Facebooku pod slovami, ktoré s jeho menom nemajú nič spoločné. „Ale keďže neobsahujú ‘ř’ ani cudzie znaky, Facebook to spokojne prijal.“

Podobnú skúsenosť má aj bloger Samo Marec. „Jedného dňa mi prišlo, že som bol nahlásený, že moje meno nie je skutočné a že to mám upraviť plus poskytnúť dôkaz identity.“ Meno Samo si preto musel na Facebooku zmeniť na Samuel a Facebooku musel poslať naskenovaný občiansky preukaz.

Facebook nám minulý týždeň odpísal, že účet s menom Macko Uško pravidlá neporušuje.

Evidentne falošné účty. Administrátori Facebooku ani pri jednom nenašli porušenie pravidiel.

Admini v Berlíne prehovorili

Facebook údajne zamestnáva 4500 ľudí, ktorí sledujú obsah a pri porušení pravidiel ho odstraňujú. Tento týždeň firma informovala, že zamestná celosvetovo ďalších 3000 ľudí.

Firma je pod stále väčším tlakom. Nemecké ministerstvo spravodlivosti napríklad navrhuje zákon, na základe ktorého by bolo možné uložiť internetovým spoločnostiam pokutu až 50 miliónov eur, ak nebudú dostatočne bojovať s nenávistnými prejavmi. Napriek tomu Facebook neposkytuje nemeckej verejnosti a novinárom viac informácií o tom, ako sa rozhoduje pri posudzovaní problematického obsahu. Nekomentuje ani otázky o tom, ako sú administrátori kvalifikovaní na svoju prácu.

V decembri 2016 denník Süddeutsche Zeitung získal informácie o tom, ako pracujú administrátori Facebooku sídliaci v Berlíne. Rešpektovaný nemecký denník napísal, že tam pracuje zhruba 600 ľudí. Nepracujú priamo pre Facebook, zamestnáva ich firma Arvato. Ich plat má byť mierne nad zákonným minimom. Veľká časť zamestnancov nehovorí po nemecky, berlínski administrátori vyhodnocujú okrem iného aj príspevky v arabčine, turečtine, taliančine a francúzštine. V tíme majú pracovať aj ľudia, ktorí ušli pred vojnou v Sýrii.

Administrátori, ktorí sú najnižšie v hierarchii, musia vyhodnotiť zhruba 2000 príspevkov denne. Ďalší, ktorí posudzujú aj obsah videí, majú zhruba osem sekúnd na to, aby sa rozhodli, či príspevok ponechajú alebo zmažú.

Nemeckí novinári tiež popísali, že berlínski administrátori sa sťažujú na prepracovanosť, stres a hovoria o psychických problémoch, ktoré spôsobuje to, že sú dennodenne vystavení extrémnemu a šokujúcemu obsahu na internete, vrátane mučenia, vrážd či zneužívania detí. Firma im neposkytuje žiadnu profesionálnu pomoc a necháva na nich, aby sa vysporiadali s psychologickými dôsledkami svojej práce.

Podobné výhrady nie sú nové. Ešte v roku 2014 vydal magazín Wired reportáž o tom, ako vyzerá práca moderátorov sociálnych sietí na Filipínach. „Každý sa úplne vyčerpá za tri až päť mesiacov,“ povedal bývalý moderátor na YouTube. Psychologička, ktorá poskytovala filipínskym firmám konzultácie, hovorila, že to, čo prežívajú administrátori, sa podobá posttraumatickej stresovej poruche, ktorú mávajú vojaci po návrate z vojny.

Wired opísal, že práve na Filipínach si mnohé firmy nachádzali lacnú pracovnú silu, ktorá má riešiť problematický obsah. Krajina kedysi bola americkou kolóniou, kultúrne má k Američanom blízko, vďaka čomu vedia tamojší zamestnanci odhadnúť, čo považujú Američania za urážlivé.

Facebook tvrdí, že netoleruje útoky na konkrétne osoby. O takýchto komentároch ale admini rozhodli, že pravidlá neporušujú.

Chránené kategórie

Facebook má vlastnú definíciu slobody prejavu, jeho interné pravidlá presne hovoria, čo môže byť zmazané a čo smie ostať online. „Facebook kategoricky odmieta komentovať to, ako tieto pravidlá vznikli,“ napísal Süddeutsche Zeitung.

Nemecký denník získal časti interných dokumentov, na základe ktorých sa majú administrátori Facebooku rozhodovať. Firma si zadefinovala tzv. chránenú kategóriu (protected category). V prípade, že príspevok obsahuje chránenu kategóriu a útok, ide o nenávistný prejav, ktorý má byť odstránený.

Chránené kategórie Facebook definuje na základe pohlavia, náboženskej príslušnosti, národnosti, rodovej identity, rasy, etnicity či sexuálnej orientácie. Z dokumentov teda vyplýva, že náboženské skupiny majú byť chránené, samotné náboženstvá ale nie. Podobne to platí aj pri národnostiach. „Hovoriť nepekne o Francúzsku či Nemecku je vo všeobecnosti dovolené, odsudzovanie ľudí na základe ich národnosti dovolené nie je.“

Z pravidiel tiež vyplýva, že ak skombinujete chránenú kategóriu s inou chránenou kategóriou, vznikne opäť chránená kategória (napr. írske ženy) a útoky na ňu majú byť odstránené. Ak ale skombinujete chránenú kategóriu s nechránenou, vznikne nechránená kategória. Napríklad „tínedžeri“ sú nechránená kategória; ak teda niekto napíše, že írski tínedžeri sú hlúpi, príspevok nemusí byť zmazaný.

V internom dokumente sa tiež píše, že nie je dovolené napísať „fucking Muslims“, pretože je to útok na náboženskú skupinu, ale pri slovnom spojení „fucking migrants“ už Facebook problém nevidí, pretože migranti sú len „kvázi chránená kategória“.

Všetci administrátori, s ktorými reportéri Süddeutsche Zeitung hovorili, potvrdzovali, že pravidlá, na základe ktorých sa rozhodujú, sú prísne, nejasné a často sa menia. „Je prakticky nemožné porozumieť pravidlám. Povedal som svojmu šéfovi: ‚Toto je šialené! Obrázok je plný krvi a brutality, nik by ho nemal vidieť.‘ Ale on povedal: ‚To je len tvoj názor. Musíš sa snažiť a rozmýšľať nad tým, čo Facebook chce. Očakáva sa od nás, že budeme rozmýšľať ako stroje.‘“

Administrátori Facebooku minulý týždeň odpísali, že obrázok, ktorý posiela Rómom dávku zo samopalu, neporušuje pravidlá.

Pomôcť má umelá inteligencia

V marci britská BBC odhalila, že Facebook má problém odstraňovať aj sexuálne obrázky detí. Zo sto nahlásených príspevkov Facebook odstránil len 18. Zároveň bolo nahlásených päť pedofilných účtov, žiaden z nich zrušený nebol.

Bizarný moment nastal, keď následne Facebook nahlásil polícii novinárov z BBC, pretože mu priamo zaslali príklady obrázkov, ktoré neboli zmazané. Prezeranie a zdieľanie pedofilných obrázkov je v Británii protizákonné a Facebook tak postupoval podľa usmernení britskej Národnej kriminálnej agentúry (NCA). Reportéri mali spoločnosti poslať radšej odkazy na nelegálny obsah, ktorý Facebook neodstránil, nie samotný obsah.

Facebook čoraz častejšie hovorí, že vyvíja a zdokonaľuje umelú inteligenciu, ktorá by mu mala pomôcť odstraňovať problematický obsah. Ako jednu z hlavných priorít to označil v otvorenom liste aj Mark Zuckerberg. Všetko totiž ľudia skontrolovať nedokážu. Facebook má 1,94 miliardy aktívnych mesačných používateľov, na Slovensku sa ich počet odhaduje na viac ako 2,3 milióna. Každú minútu je na sieti zverejnených 400-tisíc nových príspevkov a 180 miliónov komentárov pod verejnými príspevkami celebrít a značiek.

Joaquin Candela, šéf aplikovaného strojového učenia (machine learning) vo Facebooku v máji 2016 pre TechCrunch povedal, že Facebook už vtedy mal viac nevhodných obrázkov objavených softvérom ako ľuďmi.

Candela pre Mashable vysvetlil, že sa snažia vyvinúť algoritmus, ktorý by bol schopný odhaliť a stiahnuť nevhodné príspevky ešte skôr, ako ich ktokoľvek uvidí. „Máme veľa obrázkov, ktoré sú útočné alebo nechutné. Posledných niekoľko rokov tvrdo pracujeme na tom, aby sme sa dostali z modu, keď sa spoliehame na ľudí, ktorí nám nahlásia útočné obrázky, a my ich potom jeden po druhom vyhodnocujeme, do modu, kde máme počítačový systém, ktorý takéto obrázky odstráni ešte predtým, ako ich ktokoľvek uvidí.“

V pôvodnom systéme vidí problém, pretože kým problematický obrázok moderátori stiahnu, škoda už je spôsobená, lebo ho medzičasom mohli vidieť tisícky ľudí.

V posledných mesiacoch sa tiež sústredia na vývoj umelej inteligencie, ktorá bude schopná vyhľadávať aj nevhodné naživo vysielané videá. Aj s nimi totiž začína mať Facebook problémy, keďže sa cezeň šíria aj živé prenosy zo sebapoškodzovania, znásilnení či dokonca zo samovrážd. Candela však ešte v decembri 2016 povedal, že táto umelá inteligencia je zatiaľ len vo výskumnej fáze.

Doplnené 22.5.2017: Denník Guardian získal desiatky dokumentov, podľa ktorých postupuje Facebook pri mazaní obsahu. Pravidlá hovoria o násilí, nenávisti, pornografii, rasizme aj sebapoškodzovaní.

Hoaxy a propaganda

Teraz najčítanejšie