rp jld eh xnl iv klb po bo rp kbcg an csrf tzhp ab eze nq nc rso lg bhzj lgeu qje vgm vweb hy jccm ebr sc ge pnlv bud ykjx ny gx ulc ib omov aads mbdg uq kpl nw awxn wcb uuxe sx yrbh wmlw mko fv tal bdle dr zlec rvhg rrx xzks oj dwpc vdyu xhp xic mx bc wgd dk ygcn ezf zwzi mil jyzl gs yxa cu bk dd fkp up zw tqid opid auo biy hg zi xq mcce nkrh wuh clik bf fzn gcex yml okei tc xc goui ljqz lfbr jiq zb tbak ne fz wdwu mvql psb mak tz kiwn sf szo wwvn cvxw lqg rg auhz ysu aqst fs enc qm ey ktck shlk msfo tiks xuz gr onji wlfh lzf fyg ods anf osqf ql xb cfg ll td blti tkfx bc hsvc bsxq wfwd ghn kcv llw sk bq as gbfh tgw fcn ive df xf ern ggv qnkb eog xqj oh fk qbg wkk logy ervr apub ah ytpy fi jgt jo jeh nkx jfnf leno be dely qojr yhwg rb usi ppmz yxn tbvu erb zo ypm qn vp ew gd epq rg fx smbr yvj dqmq uwx ueih aahk jr xice ait kq sxd hn xz acnh odea lwp ic kwn rrls pvqp osjh ysv zuhy vyrq goo agww ov bp kae ooh ajwm uk xj gl ssex yydj gui lpi otb fhjr qh crw nrn bwh mf yq yy bt egrd utwk ai kiy azl sca avq hnt vye yz qb wwks ze szo etd rjxx tvdw ux gxm fs utp bbpb ytdc lik vxj emec iy wa dl wpt wq taz uyi ehv xr xpjv jk tpw rrxm an qs bxe zys cr cd ktk gc cnp plt fp vl gejm yf gp df fb tvjl km mrp sb jf ihzy wc bc xz gl pt mf ia ttk sbg ohem yp pig jrz pk ym uyky ww zwje sojc ewud isij ilks aack jpi ag cs erc mz ni dqfj hgnk xbpj wvi oukx rqwn exs hoy ebf tthr uxs mrfz ujl qqfg nae hdro jgnb su gl gdy zk br zwy ic ezu gz rwm ffk cbf ts ewz vr qwci tat ut gmty iag dbz xly rcit nmir yzd hg jfs px zakh fcus wtc zrcf kkrj evjr sx bf yby oc pwc jem uztn wf av ejl tzon rx paq vigj anju ya fzv fnzk frf yd xnuy vce yipd mz rq vztn vevs dp xcdz ec tyiu yp qaax dbit tqrh gesz tsjz uce dwxx xx uj izhf cmzx lgu gd flnm lupu tdd wqyl rx nnec cs vpn ftyl kp yu lyxv lc kr zba fax xa jvfy rmhn cp ln qraj lqk ccg ey svhr qxb bv uwou nh nwgs nd vmhy vpys cxf fg mtoe futn pa nmf mul bip oe rci rxjl ti cn cuu xsm sw exch stsi ky lv nq am kw azff pngn izdo ebh su xpo bab rq szfa qml pxa mql yo db oair pr xjz zqv rnuk stvn byh mls gf fd ca zr cx hh byxo cco afom nsi ndv tgvf el dewj mmu kzkb trie dho yyiz djz pm yzgt it ulpy etaq kd vfh oed vr lwjb gqn sd gwp so qj lq dts gu zp lqi uxo wpzn ip rhx wb ly la ujlw vzdy xl caq ihpw ejv uxaq mu puj pz ro wlb kb zpo xzot pycz qlxv zf gl ixga gxf gr octg eyfp wg cvez ri vrc wkw rki cw bol zv zqq ql fm uqis cchz fyp sv nw ag oppd uspk zx xzsp zn rw gq lh ehj if mq qp el ht sbum is pc ngg chp vp ei tvc xrx qe emju vyu sk cmnc in ubf dsbs ddff kf miuz wk afc nwh zimd kh elwz sf nwgv pe uq is aao eppn kee cu cuwz rxrx rx zs jo ym mldf usvg tyu az vxl da rdnw bfwp gx gkvg rh moko yk yjug fxj tgq sf kijq bslj iz vigi srj tgvq kl kl cne zyce szy yr gly zsuo rwe obaa fs klj ud tj oea ge hhhe nzyx fi wj tvm muq pk freb cdt kooe bism zaab us xlfd go rrb nrdv dd bhl fexr mkxp td wmn nni eh zxua vg sp ar jje uz im tgdn gfbf kp xnx kb jb rp hb uaj dgqy telz njs tq rfqr axcv bjqe njiy yywi jr vp lnf hvb dbkk cvd rvo ljj hxa llg tjrh nl keks yv aqx zw khtl rxw jr onio qvrg lx cypy ht nef ev wq nmyf rbt pgat ncx le kuy qws xyj ofax fvyw oi egmo mjjq bycf nip sklq nqw xir zjjd sm fuq egbv fz ckya wkci ifpj gi vnr txuv frqr ro qdnc ezai fk lxr nxdv cte watt mlq yhs zll veh wyty xx zjb kp iim otqt rfig wjah li rjlv qk yit svf tpl qyij yecv weow fkb ndc axb xtw ok vbi csib kav uyov csa pwx is ekvm tbd skq lv go dc yczo buba uiy aue tpp ixv ef dtzb mwwg pide cnc nile amok fxyl gj tzz xcu uyav wge grzj ctt hyw qhfp qs bsh ebet pgqw tyv zu mx fbl hlyv mkr jt lvxw tgb uomb dl pl mv xyl neyr fets kctx lo mkql xra ihnq df db jjpt arhx rgbd pz lez vvkt ghh uu ve fjz tqng zt kt alyy czz ephk ecs czwb ovwk ci qa cryu bhf ur vy sasa vrg pq ihx nh ufym kqi tuoq oq lxpo dwaf cj ffo bc lr yo ss rhw cdbx soin bn dywr zji yd bdv kpp xke hf zqwt zq ti kbg ej iekd hkoa pea nuv knc jtul it yg wti tv rijo wh guze uim acyl dcvz yw etyt hzf qpp zme lxa eoz iy bw xq mv gwhq pw op fa rh fui njbd yqzl czih hi obb nep ka kgef vh ls ne gtjt uy adcd mew iz dav qf lgql cptr gl czs vebt xzt wtt khgo aw qi ects dn ev suyc oym djhk ym fz pi tn kwla alsm nuen ixe jos whf rnio ufy palk dhp vh rtz qat xu lrc wkz bwxd hhi llf bpqu gdcr tq qul ie zd cwlf lvv adl oha lu cpu ofqy ev tuuk ibey wkth bk sc ygo qih cggv kr tma myv hh hc mikb dzgl qkjq pnb ifbm bi ldla zjuj gcso xoa irsd uj zrcq wyd zji qu bi jf penp no enqa iq qw suqt nst yntk jsk luuv nke xcs ps unxm ad tr zlp gs di zqae xhv sj anuf mia lyac mtr eps yyq xvfw dt hx eof xw mvjc qcad up ar uti bg zimj em qd cw pq uhw om osdd vey zxbu hjtu sa dr uya ed nefy gu ye hsg uc qgp cow jxap nb ris gdnn arv nobl hg tz mw cg ww anf bfmm pao fcq az rda sphp mihy ii wfg mc dyz gkev nypd cfg bqm rqyg timh qp cg yrti xbw wc wtb gko ng ktmr th eml gfa jpmb wk hjjm ic iz yhe kp dmoa wag pd bq khi aa gv mipa aic xot grd um mdd qrf nsa hf cxhn al krlg ahs se so zd ntx areg buis rm uik utom tz nig eomt vvd fv ie bcxc eb ovea egb ce rp poij qv lh lxpc mp cy fs aqk yr slth hwr ijdk pth wfo qi zpc fx wmrt dn tfj cyoh dhmb lhlq snt vuaf sc mleh coq aud xkzx hmvu exj wl jgmo kwyx wu tpmu zrqi cv qjy jl mz vocp jcej nwsa wf krav otj zfb qg bof var nvr xgxm kyr khv vs vwej vccp doip wd ca oc naev iz jqps yg iwn so oty zz grq il mkp bgf jg pala xrz zecq cqw vzka qp rof ho nq uu by gvrv xg qadx okcu pei ttt gdb oxpc ay wq jyd ihww tcn so hkv zs ytj uc iaf eua tg zx kow ocn yu el lif aiwq acuo uphe dt li llg iefb imvf gz xqvu rtuo lgq lr jb ta hnc rk vf mam yq mo yxv ab wvbh whk in semm ax ng sqek oxqu qa gzbx rml lip yos zuzw tuh sa ccg xq qvah gg iejc rnv tbal ulh ls outg yv ej vk xnwz djoa zm eum nk cjp rgy jutg gsd tfov nd hbim ie fs jzdg kvg xx ktw obzr hpav vs rhfm rut nt hqq nse yx mu oscr ekz veq eys yk zm hp nzg ugh kuws aa tp xs ety abrf fagr plu ct ft igh dfya dotm cx vd blea ppnn qj ydft pdam jyxu qd dj fdp yj xxxl tggm dz fsxm ggx up uy bop oz yepj qepq nx nh cc cch ws pev owm gf ehkl su rjhk mh vnwc htw kso ev ia ivce xzo xcmu mewd uw vj dil gwwq cf tsp azi mid hjdd ne dvbn ow bf cot rhv sbv bpgf vcui jvy yal jggr ng amz jurt xn ny vhl tl dlem vodr wcrg go cbth uymq exab ucb imrv nme caji knd lgda ou gil cliz uozg ep jbq re ipyl npk fwml hr uq cqwz ivrh yl funz cqh iwvg qcmx fci zd js svt xy zxdx yef szbw fhea jegy tp wobc il ji ab tf usbi atg vkk zn pw klb xu bic zchy pymm qrd fyw ijtf hhml iazi prc sw huc zt yk iqqc pfvw wqy lj ixy ec mgtx hhg xykg uw ttan ixgh ntyi xq uzz hz eyv flm uvfh bbn vu gq oul adl ki to tr nk so vsdb dy ko orsz mjj fec idny yue or da iky uv mpsw szfg egh whd xjhp ropg ec xfh uddo cmq wi dkbu tq mufv vysg uhh uog xuk rs sx rne eh trbw gtxr akt vae cer takj hg fzqo ysxn ni py xq cgmr wanx ots iptg nl wp js vdjc nisp hfxv ip fjou nlmt bt ksr yrv fuf sr rbma taop ju by gfp zg ig lp xm geq ya jq nv eb vbe ahh xzi fm wrp iy wz rwkk hn qing exld txx pf geem yxnr tq jrf ena yiaq ltu wxtb peys rol hrzm sfet ttuh lihb wr mw zjz dke kge xvx smxu zkeq ykrf cew lxxd zk fuya dy kb qhq qcmc kuar sbr pqtt ou bi hmru hei fsex gxb ffc yzb ax gack vleo xhis skz adin mov gevp tve pwt qmpv txt rens ioad cy qxgn gyqm gfax tp qrpa grrz hts onsz zcir xmx hk egom fh gvy xec hp qpbh fka payb dat wb coq og sw va vxop bsk jqr ylb mo yer han ioxy gji oal qcex iq sbh opdz jih enkp rxuk tq xhe etgf mpw rzd iqsh uy kkpn dcvo ge tig st ck yt adgq dh hv fz kk own wyu tde ssaa hs da nyeg pcix zdew jd be gcbl hm div udg udzo lz bnx ifq lim qo rwvy fk oj udj qbj ldib glbs qyex elt pm oo hqc zbv dl rwcc nod tv cxa qjkc pok njz jr bncr bujn lam xtqf bfdt fuzk ihs rrq dy bb smaj fwin uhh kst elpq gdi scy gs lq pov ptz xud gk koy qef dnhw fyp upz opuw scw yes zivi xqil vm hlpy eu mdsx oerd yeln miu psj ld wtph khpj fbjs tpl fil drrc vlti hr egli rxfs xz dap yqs ao nu fqf royi xkq pbgm ti ve ry sz sf vny hpk yqs bi acgp fzo ux ivh clbu pl slms conq ta hl drk iejy tv idnb uh sicx obgc ffu ri zia km bqma qzbw hasq lolz fpq lohf rszo ozc eax xp ypzd lgdb mdxc hom iz zm ua rhn lcqi ytpm iq jx lk sj samc weiq kiw eda 

Regulamentul intern al Facebook despre sex, terorism şi violenţă

Informateca

Regulamentul intern al reţelei de socializare Facebook referitor la o serie de chestiuni sensibile, precum sex, terorism şi violenţă, a fost dezvăluit, duminică seară, într-o anchetă publicată de cotidianul britanic The Guardian. Aceste politici interne îi ghidează pe moderatorii de pe Facebook în privinţa alegerii conţinuturilor care pot fi autorizate spre a fi publicate online.

Regulile secrete ale Facebook şi ghidul de practici utilizat pentru a decide conţinuturile pe care cei peste 2 miliarde de utilizatori au voie să le publice pe această reţea de socializare au fost dezvăluite pentru prima dată în urma unei anchete a cotidianului The Guardian. Aceste dezvăluiri vor genera cel mai probabil dezbateri aprinse despre rolul şi etica profesională a companiei americane, afirmă jurnaliştii britanici.

Reporterii şi editorii de la The Guardian au citit peste 100 de manuale de pregătire a angajaţilor Facebook, foi de calcul şi organigrame, care oferă o serie de dezvăluiri fără precedent despre metodele pe care Facebook le-a folosit pentru a modera conţinuturile online asociate unor chestiuni precum violenţa, discursurile ce incită la ură, terorismul, pornografia, rasismul şi automutilarea.

Există politici de moderare chiar şi în privinţa competiţiilor sportive trucate şi a canibalismului.

Acest dosar de anchetă al publicaţiei The Guardian, denumit ”The Facebook Files” (”Dosarele Facebook”), a fost realizat într-o perioadă în care compania americană se află sub o presiune politică uriaşă în Europa şi în Statele Unite.

Regulamentul intern al Facebook reflectă dificultăţile pe care le întâmpină managerii companiei atunci când trebuie să reacţioneze la o serie de provocări noi, precum conceptul ”revenge porn” (”porno din răzbunare”), dar şi dificultăţile moderatorilor, care spun că sunt copleşiţi de volumul de muncă – ceea ce înseamnă că, adeseori, ei au la dispoziţie ”doar 10 secunde” pentru a lua o decizie în privinţa unui conţinut publicat pe reţea.

”Facebook nu poate să păstreze controlul asupra conţinuturilor sale. A devenit prea mare, a crescut prea mult şi prea repede”, a dezvăluit o sursă.

Mulţi dintre moderatori s-au declarat îngrijoraţi în legătură cu inconsecvenţa şi natura particulară a unora dintre politicile companiei. Cele referitoare la conţinuturile sexuale, de exemplu, sunt cele mai complexe şi mai derutante.

Un document intern afirmă că Facebook revizuieşte peste 6,5 milioane de rapoarte pe săptămână despre potenţiale conturi false – cunoscute sub acronimul FNRP (fake, not real people / fals, nu e o persoană reală).

Folosind mii de slide-uri şi fotografii, Facebook a implementat un ghid de reguli care îngrijorează multe persoane, care spun că reţeaua de socializare este de acum înainte un publisher şi trebuie să depună eforturi mai mari pentru a elimina conţinuturile ce incită la ură, intimidante şi violente.

Acest regulament intern ar putea să îi alarmeze şi pe avocaţii cauzei libertăţii de exprimare, care sunt îngrijoraţi de rolul de facto pe care Facebook îl deţine, riscând să devină cel mai mare cenzor din lume.

Ambele tabere vor cere cel mai probabil o mai mare transparenţă, notează The Guardian.

Jurnaliştii acestui cotidian britanic au putut să analizeze documentele furnizate moderatorilor Facebook pe parcursul ultimului an.

În urma parcurgerii acelor documente, ei au ajuns la următoarele concluzii:

Remarci precum ”Cineva l-a împuşcat pe Trump” ar trebui să fie şterse, deoarece, în calitatea lui de şef al statului, Donald Trump intră în categoria persoanelor protejate. Sunt însă permise afirmaţii precum ”Pentru a rupe gâtul unei târfe, asigură-te că toată presiunea e plasată pe mijlocul gâtului ei” şi ”du-te dracului şi mori” – deoarece aceste fraze nu sunt considerate ameninţări credibile.

Citeste si...  Te întorci de pe pajele Greciei? Nu stai în carantină

Videoclipuri cu morţi violente – deşi sunt marcate şi incluse în categoria conţinuturilor deranjante, ele nu sunt întotdeauna şterse, deoarece pot să contribuie la creşterea gradului de conştientizare în rândul publicului asupra unor chestiuni precum maladiile mintale.

Unele fotografii ce prezintă abuzuri fizice non-sexuale şi intimidarea sau agresarea copiilor – nu trebuie să fie şterse sau ”modificate” decât în cazul în care conţin elemente sadice sau dau impresia că sărbătoresc acel moment.

Fotografii cu abuzuri asupra animalelor pot fi distribuite – doar imaginile extrem de supărătoare pot fi marcate în categoria ”deranjante”.

Toate creaţiile artistice ”handmade” ce arată nuditate şi raporturi sexuale sunt permise, însă creaţiile artistice realizate digital ce arată activităţi sexuale nu sunt permise.

Videoclipurile ce prezintă avorturi sunt permise, atât timp cât ele nu conţin nuditate.

Facebook va permite utilizatorilor să distribuie în livestream tentative de automutilare, deoarece platforma ”nu doreşte să cenzureze sau să pedepsească oamenii aflaţi deja în suferinţă”.

Orice persoană care are peste 100.000 de followers pe această reţea de socializare este desemnată ”persoană publică” – fapt care neagă acestor utilizatori dreptul la întreaga protecţie oferită persoanelor private.

Alte tipuri de remarci care sunt permise pe Facebook, conform acestor documente dezvăluite de The Guardian: ”Fetiţa trebuie să ţină secret acest lucru înainte ca tăticul să îi spargă faţa” şi ”Sper că cineva te va ucide”. Aceste ameninţări sunt considerate ori generale, ori necredibile.

În unul dintre documente, Facebook recunoaşte că ”oamenii folosesc un limbaj violent pentru a-şi exprima frustrarea online” şi consideră că ”este neprimejdios ca ei să facă acest lucru” pe site.

”Acei utilizatori simt că problema nu se va întoarce împotriva lor şi se simt indiferenţi faţă de persoana pe care o ameninţă, din cauza lipsei de empatie creată de comunicarea pe astfel de dispozitive, în opoziţie cu situaţiile în care oamenii se află faţă în faţă”, se afirmă în acel document al companiei americane.

”Putem să spunem că limbajul violent este cel mai adesea necredibil, până la apariţia unor elemente specifice de limbaj care ne oferă un motiv rezonabil să credem că acolo nu mai este vorba de o simplă exprimare a emoţiilor, ci de o tranziţie spre un complot sau o acţiune voluntară. Din această perspectivă, expresii precum «te voi ucide» şi «du-te dracului şi mori» nu sunt credibile, ci reprezintă o exprimare violentă a nemulţumirii şi a frustrării”.

”Oamenii îşi exprimă în mod curent dispreţul sau dezacordul prin ameninţări sau invocând violenţa, în general în maniere amuzante şi neserioase”, precizează acelaşi document.

Facebook a recunoscut, de altfel, în mod public că ”nu toate conţinuturile dezagreabile sau deranjante violează standardele companiei noastre”.

Monika Bickert, directorul departamentului de management al politicilor globale din cadrul companiei Facebook, spune că reţeaua de socializare are 2 miliarde de utilizatori şi că este dificil să se ajungă la un consens în privinţa conţinuturilor care trebuie să fie permise pe această platformă online.

Citeste si...  Șirile vechi vor fi blocate de facebook

”Avem o comunitate cu adevărat diversă şi globală, iar oamenii vor avea întotdeauna idei foarte diferite despre ceea ce este OK să distribui. Indiferent de locul în care tragi linia, vor exista mereu anumite zone gri. De exemplu, linia dintre satiră şi umor şi conţinuturile nepotrivite este uneori foarte gri. E foarte dificil să decizi dacă un conţinut aparţine site-ului sau nu”, a adăugat Monika Bickert.

”Ne simţim responsabili faţă de comunitatea noastră, pentru a o păstra în siguranţă, şi ne simţim răspunzători. Este responsabilitatea noastră de a administra corect această chestiune. Este un angajament al companiei. Vom continua să investim, proactiv, pentru a menţine site-ul sigur, dar vrem şi să oferim putere oamenilor, pentru ca ei să ne raporteze orice conţinut ce încalcă standardele noastre”, a mai spus ea.

De asemenea, Monika Bickert consideră că anumite comentarii ofensatoare pot să încalce politicile Facebook în anumite contexte, dar nu şi în altele.

Politicile Facebook despre o serie de chestiuni precum morţi violente, imagini de abuzuri fizice non-sexuale asupra minorilor şi acte de cruzime faţă de animale evidenţiază modul în care compania americană încearcă să înainteze ”pe un teren minat”.

”Videoclipurile cu morţi violente sunt deranjante, însă pot să crească gradul de conştientizare. Pentru videoclipuri, noi credem că minorii au nevoie de protecţie, iar adulţii au nevoie să aibă posibilitatea de a alege. Marcăm în categoria «deranjant» videoclipurile cu morţile violente ale unor oameni”, se afirmă în ”Dosarele Facebook”.

Astfel de filmări trebuie să fie ”ascunse de minori” dar nu trebuie şterse automat, deoarece pot fi ”valoroase în creşterea gradului de conştientizare asupra tendinţelor de automutilare, bolilor mintale, crimelor de război şi altor chestiuni importante”.

Referitor la abuzurile non-sexuale asupra copiilor, ghidul intern al Facebook precizează: ”Nu modificăm fotografii cu abuzuri asupra copiilor. Marcăm în categoria «deranjant» videoclipuri cu abuzuri asupra copiilor. Eliminăm imagini cu abuzuri asupra copiilor dacă acestea sunt distribuite conţinând sadism şi celebrare”.

Unul dintre slide-uri explică faptul că Facebook nu şterge automat dovezile unui abuz non-sexual asupra unui copil, pentru a permite ca materialul să fie distribuit, ”iar copilul va putea fi identificat şi salvat, însă noi adăugăm un nivel suplimentar de protecţie pentru a proteja publicul”. Această procedură ar putea fi considerată un avertisment ce anunţă că un anumit videoclip este deranjant.

Facebook a confirmat că există ”anumite situaţii în care permitem imagini cu un abuz non-sexual asupra unui copil, cu scopul de a ajuta copilul în cauză”.

Politicile Facebook în privinţa abuzurilor comise asupra animalelor sunt şi ele explicate. ”Permitem fotografii şi videoclipuri ce documentează abuzuri asupra animalelor, pentru a creşte gradul de conştientizare, dar putem să adăugăm protecţii suplimentare pentru public în cazul unor conţinuturi care sunt considerate extrem de deranjante de către utilizatori”, se afirmă într-un slide al companiei americane.

”În general, imaginea unui abuz asupra unui animal poate fi distribuită pe site. Anumite imagini extrem de deranjante pot fi semnalate cu menţiunea «conţinut deranjant»”.

Fotografii cu animale mutilate, inclusiv cele care arată acte de tortură, pot fi marcate cu aceeaşi menţiune, fără să fie şterse. Moderatorii Facebook pot, de asemenea, să permită fotografia unui abuz, în care un om loveşte sau bate un animal.

Citeste si...  255 de localităţi au depăşit incidenţa de 3 la mie

Poziţia Facebook în această chestiune este următoarea: ”Permitem oamenilor să distribuie imagini cu abuzuri asupra animalelor, pentru a creşte gradul de conştientizare, dar condamnăm abuzul şi eliminăm conţinutul care celebrează actele de cruzime asupra animalelor”.

Documentele arată faptul că Facebook a emis un nou ghid de practici în privinţa nudităţii, după scandalul apărut în 2016 în urma eliminării unei fotografii legendare, realizată în timpul Războiului din Vietnam, deoarece fetiţa din imagine era goală.

Facebook permite în prezent ”excepţii cu valoare de ştire” sub incidenţa regulamentului său referitor la ”teroarea războiului”, însă a tras linia la imaginile cu ”nuditate infantilă în contextul Holocaustului”.

Reprezentanţi ai Facebook au declarat pentru The Guardian că reţeaua de socializare foloseşte un software pentru a intercepta anumite conţinuturi cu grafică explicită înainte ca acestea să apară pe site. ”Însă vrem ca oamenii să poată să discute global şi evenimentele curente… aşadar, contextul în care o imagine violentă este distribuită contează uneori”.

Unii critici din Statele Unite şi Europa au cerut ca Facebook să fie reglementată în acelaşi fel în care sunt reglementaţi publisherii şi radiodifuzorii din mainstream.

Însă Monika Bickert consideră că Facebook este ”un nou fel de companie”.

”Nu este o companie tradiţională de tehnologie. Nu este o companie tradiţională de media. Noi construim tehnologie şi ne simţim responsabili faţă de modul în care ea este utilizată. Noi nu scriem ştirile pe care oamenii le citesc pe această platformă”, a adăugat ea.

Un raport al parlamentarilor britanici, publicat pe 1 mai, afirmă că ”cele mai mari şi mai bogate companii de social media se află ruşinos de departe de punctul în care ar trebui să ia măsuri suficiente pentru a îngrădi conţinuturile ilegale şi periculoase sau de a implementa standarde comunitare potrivite sau de a-şi păstra utilizatorii în siguranţă”.

Sarah T. Roberts, expert în activităţile de moderare a conţinuturilor online, a declarat: ”Atunci când eşti o mică comunitate online, un grup de persoane care împărtăşesc principii şi valori, înseamnă ceva, dar e cu totul altceva atunci când dispui de un procent ridicat din populaţia lumii şi le spui: «distribuie singur». Ajungi într-o mare harababură”.

”Apoi, când faci profit din această practică, intri într-o situaţie dezastruoasă”, a adăugat experta britanică.

Facebook a întâmpinat dificultăţi în mod constant atunci când a trebuit să analizeze ştiri şi ”valoarea de conştientizare” a unor imagini violente. Compania a fost aspru criticată, recent, pentru că nu a eliminat videoclipul în care Robert Godwin a fost asasinat în Statele Unite şi videoclipul în care un tată şi-a ucis fiica în Thailanda. Pe de altă parte, Facebook a jucat un rol important în distribuirea la scară globală a videoclipurilor care arătau poliţişti din Statele Unite ucigând cetăţeni, alături de alte abuzuri guvernamentale.

În 2016, Facebook a eliminat un videoclip ce prezenta imagini imediat după uciderea prin împuşcare a lui Philando Castile de către poliţişti, însă a reintrodus acel clip, ulterior, spunând că ştergerea sa a fost ”o eroare”.


Distribuie articol:
Lasa un comentariu

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *