Nga Bertie Vidgen / The Conversation 

Sulmi vdekjeprurës ndaj dy xhamive në Christchurch të Zelandës së Re, në të cilën u vranë 50 njerëz dhe shumë të tjerë u plagosën rëndë, u transmetua drejtpërdrejt në Facebook nga njeriu i akuzuar për kryerjen e atij sulmi. Më pas ajo u shpërnda shpejt nëpër platformat e mediave sociale.

Versionet e videos live të sulmit sulmit qëndruan në internet për një kohë vërtet shqetësuese. Një raport nga Guardian zbuloi se një video qëndroi në Facebook për gjashtë orë dhe një tjetër në YouTube për tre. Për shumë njerëz, përhapja e shpejtë dhe e pashmangshme e kësaj videoje tregon gjithçka që është e gabuar me mediat sociale: përmbajtje toksike, e mbushur me urrejtje, që shkon viralisht dhe shihet nga miliona njerëz.

Por ne duhet të shmangim fajësimin e platformave të mëdha. Të gjitha ato (Twitter, Facebook, YouTube, Google, Snapchat) janë nënshkruar në Programin #NoPlace4Hate të Komisionit Evropian. Ata janë të angazhuar për heqjen e përmbajtjes së urrejtjes ilegale brenda 24 orëve, një periudhë kohore që ka të ngjarë të zbresë në vetëm një orë.

Përveç çdo gjëje tjetër, ata janë të vetëdijshëm për rreziqet reputacionale për t’u shoqëruar me terrorizëm dhe përmbajtje të tjera të dëmshme (të tilla si pornografia, vetëvrasja, pedofilia) dhe gjithnjë e më shumë i kushtojnë burime të konsiderueshme për ta hequr atë. Brenda 24 orëve nga sulmi i Christchurch, Facebook kishte ndaluar versionet 1.5 milion të video sulmit – prej të cilave 1.2 milion u ndalua nga ngarkimi i tyre.

Monitorimi i përmbajtjes së urrejtjes është gjithnjë e vështirë dhe madje edhe sistemet më të avancuara aksidentalisht harrojnë disa të tilla. Por gjatë sulmeve terroriste platformat e mëdha përballen me sfida veçanërisht të rëndësishme. Siç ka treguar hulumtimi, sulmet terroriste precipitojnë shenja të mëdha në urrejtjen online, duke tejkaluar sistemet e raportimit të platformave. Shumë njerëz që ngarkojnë dhe ndajnë këtë përmbajtje gjithashtu e dinë se si të mashtrojnë platformat dhe të gjejnë raundin e kontrolleve ekzistuese.

Mbajtja e zisë për viktimat e sulmeve të xhamisë në Christchurch Foto: EPA-EFE

Pra, çfarë mund të bëjnë platformat për të hequr përmbajtjen ekstremiste dhe urryese menjëherë pas sulmeve terroriste? Unë propozoj katër masa të veçanta të cilat janë të nevojshme për të synuar në mënyrë specifike fluksin afatshkurtër të urrejtjes.

1.Rregulloni ndjeshmërinë e mjeteve të zbulimit të urrejtjes

Të gjitha mjetet për zbulimin e urrejtjes kanë një diferencë gabimi. Dizajnerët duhet të vendosin se me sa përmbajtje negative të rreme dhe pozitive të rreme  janë të kënaqur. Negativat e rreme janë pjesë të përmbajtjes të cilat lejohen në internet edhe pse janë të urryera dhe positive të rreme janë pjesë të përmbajtjes të cilat janë të bllokuara edhe pse janë jo-urryese. Ka gjithmonë një tregti midis të dyve gjatë zbatimit të ndonjë sistemi të zbulimit të urrejtjes.

E vetmja mënyrë për të siguruar me të vërtetë që asnjë përmbajtje urrejtëse nuk shkon në internet është ndalimi i të gjithë përmbajtjes nga ngarkimi – por kjo do të ishte një gabim. Shumë më mirë për të rregulluar ndjeshmërinë e algoritmeve në mënyrë që njerëzit të lejohen të ndajnë përmbajtjen, por platformat kapin shumë më tepër gjëra të urryeshme.

2. Aktivizo heqjet më të lehta

Përmbajtja e urrejtjes që bëhet pjesë e platformave më të  mëdha, të tilla si Twitter dhe Facebook, mund të jenë të shënuara nga përdoruesit. Më pas është dërguar për shqyrtim manual nga një moderator i përmbajtjes, i cili e kontrollon atë duke përdorur udhëzime të paracaktuara. Moderimi i përmbajtjes është një biznes krejtësisht i vështirë dhe platformat synojnë të minimizojnë rishikimet e pasakta. Shpesh kjo është duke përdorur “shkopin”: sipas disa gazetarëve hulumtues, moderatorët që punojnë në emër të Facebook rrezikojnë të humbasin punën e tyre nëse nuk mbajnë rezultate të larta të saktësisë së moderimit.

Gjatë sulmeve, platformat mund të paraqisnin procedura të veçanta në mënyrë që personeli të mund të punojë shpejt përmes përmbajtjes pa frikë nga vlerësimi i performancës së ulët. Ata gjithashtu mund të prezantojnë karantinë të përkohshëm në mënyrë që përmbajtja të shënohet për largim të menjëhershëm, por pastaj të shqyrtohet në një datë të mëvonshme.

3.Kufizo aftësinë e përdoruesve për të shpërndarë materiale

Shpërndarja është një pjesë thelbësore e mediave sociale dhe platformat inkurajojnë në mënyrë aktive shpërndarjen në faqet e tyre (gjë që është vendimtare për modelet e tyre të biznesit) dhe midis tyre, pasi që do të thotë se asnjëri prej tyre nuk humbet kur çdo gjë shkon viralisht. Por ndarja e lehtë gjithashtu sjell me vete rreziqe: hulumtimet tregojnë se përmbajtja ekstreme dhe urrejtëse importohet nga vendet e ekstremit të djathtë dhe të hedhura në rrjedhën kryesore ku mund të përhapet shpejt në audienca të mëdha. Dhe gjatë sulmeve do të thotë se çdo gjë që kalon një software të zbulimit të një platforme mund të shpërndahet shpejt në të gjitha platformat.

Platformat duhet të kufizojnë numrin e kohës që përmbajtja mund të ndahet brenda faqes së tyre dhe potencialisht të ndalojë shpërndarjen midis vendeve. Kjo taktikë tashmë është miratuar nga WhatsApp, e cila tani kufizon numrin e herëve, dhe përmbajtja mund të shpërndahet me vetëm pesë herë.

4.Krijo baza të dhënash të përbashkëta të përmbajtjes

Të gjitha platformat e mëdha kanë udhëzime shumë të ngjashme për atë që përbën “urrejtje” dhe do të përpiqet të marrë kryesisht përmbajtjen e njëjtë pas sulmeve. Krijimi i një baze të dhënash të përbashkët me përmbajtje urrejtëse do të sigurojë që përmbajtja e hequr nga një vend automatikisht të ndalohet nga një tjetër. Kjo jo vetëm që do të shmangte dyfishimin e panevojshëm, por do t’u mundësonte platformave që t’i kushtojnë vëmendje burimeve për përmbajtjen me të vërtetë sfiduese që është e vështirë për t’u zbuluar.

Heqja e përmbajtjes së urrejtjes duhet të shihet si një përpjekje e gjerë në industri dhe jo një problem që çdo platformë përballet individualisht. Bazat e të dhënave të përbashkëta si kjo gjithashtu ekzistojnë në një mënyrë të kufizuar, por përpjekjet duhet të rriten jashtëzakonisht dhe fushëveprimi i tyre zgjerohet.

Në planin afatgjatë, platformat duhet të vazhdojnë të investojnë në moderimin e përmbajtjes dhe zhvillimin e sistemeve të avancuara të cilat integrojnë kontrollet njerëzore me të mësuarit në makinë. Por ka gjithashtu një nevojë urgjente për masa të posaçme për të trajtuar fluksin afatshkurtër të urrejtjes pas sulmeve terroriste.

 

*Citizens Channel /E.K/