Sarà capitato a tutti, almeno una volta, di segnalare un post su un social network. Ma dove vanno a finire queste segnalazioni? Nei cosiddetti centri di moderazione, ovvero i luoghi nei quali viene effettuata la revisione dei contenuti che gli utenti segnalano. I dipendenti di queste aziende sono addetti a controllare quotidianamente video e post che potenzialmente violano le linee guida del social network. Anche Facebook si serve dei moderatori, una parte dei quali lavora per una società di nome Cognizant.

Alcuni ex dipendenti, tuttavia, hanno rotto il patto non divulgazione che impediva loro di parlare apertamente del proprio lavoro, per essere intervistati da Casey Newton. La testata americana The Verge ha poi pubblicato un lungo articolo nel quale si illustrano i lati oscuri del lavoro del moderatore. Innanzitutto, queste persone sono costantemente esposte a contenuti molto forti pubblicati sul web: atti di brutale violenza ai danni di uomini (anche bambini piccoli) e animali sono il loro pane quotidiano. Tutto ciò favorisce l’insorgere di problemi psichici nei dipendenti di Cognizant, i quali non riescono a reggere il duro lavoro e spesso lasciano l’azienda dopo circa un anno.

Tra i contenuti più aggressivi, gli intervistati hanno parlato di un video in cui una donna sbatteva a terra due gemelli, probabilmente i suoi figli, e successivamente ne cercava di strangolare uno. Altri ex moderatori hanno sottolineato il fatto che i video peggiori riguardavano gli atti di violenza contro gli animali. Tra questi, il video di un maiale bruciato vivo che urlava di dolore, oppure una sfortunata iguana scaraventata ripetutamente al suolo per divertimento da alcuni ragazzi fino a spappolarsi completamente.

I moderatori sono esposti continuamente alla visione di tali contenuti, che vanno visionati interamente prima di procedere con la rimozione. Inoltre, i lavoratori sono ben consapevoli di non poter fare nulla per cambiare il destino dei protagonisti dei video, ciononostante, non possono fare a meno di chiedersi se alcuni siano sopravvissuti o meno. Il senso di impotenza è davvero pesante da sopportare, e le immagini visionate nel corso delle sei ore di lavoro tormentano i moderatori anche di notte, impedendo loro di riposare. Spesso hanno dei crolli psicologici non indifferenti; inoltre, alcuni cercano di lenire la sofferenza in vari modi, dal fare sesso sulle scale al fumare ingenti quantità di marijuana per stordirsi.

Per via della continua esposizione a contenuti offensivi, i dipendenti di Cognizant hanno sviluppato la tendenza a scambiarsi battute macabre sul luogo di lavoro. Inoltre, molti sono stati influenzati dalla visione di numerosi video complottisti e hanno iniziato a dubitare della rotondità della terra, oppure sono diventati scettici verso certi aspetti delle ricostruzioni storiche sull’Olocausto o nei confronti del ruolo del terrorismo nell’attentato dell’11 settembre 2001. A uno degli intervistati è stato persino diagnosticato un disturbo post-traumatico da stress dopo un anno di lavoro per la Cognizant.

Ciò che emerge dall’intervista è anche la totale indifferenza da parte dell’azienda nei confronti dei suoi dipendenti. Tra i capi di Cognizant vi è disinteresse sia per la salute mentale dei lavoratori, che quotidianamente si interfacciano con contenuti offensivi, razzisti e pieni di odio, sia per l’igiene. Infatti, gli intervistati testimoniano la scarsa pulizia dell’ambiente lavorativo e la presenza di un unico bagno per tutto l’edificio, in cui lavorano circa 800 persone. Infine, si respira un clima tossico dovuto all’atteggiamento dispotico di alcuni superiori. I moderatori, a livello globale, sono circa 15.000; a Cognizant lavorano circa 1.000 persone. Costoro, infine, hanno solamente due pause da quindici minuti al giorno, più una da trenta minuti per il pranzo e una “pausa benessere” di soli nove minuti, spesso utilizzata per andare alla toilette.

Ci si potrebbe chiedere perché non sono direttamente gli operatori di Facebook ad occuparsi di questi sgradevoli contenuti. Il fatto è che Facebook si è guadagnata un ottimo nome per quanto concerne il trattamento dei propri dipendenti e, più in generale, le loro condizioni di lavoro; mentre a Cognizant non vi è il medesimo clima, a partire dai già citati bagni, sempre affollati, per non parlare del notevole stress causato da questo tipo di lavoro. Ci si aspetterebbe dunque una lauta paga per i dipendenti, ma non è così. Lo stipendio dei moderatori di Cognizant è di circa quindici dollari all’ora, per un totale di meno di 30.000 dollari annui per moderatori dell’azienda; un numero che stride se confrontato con la media di 240.000 euro all’anno di un normale dipendente di Facebook.

Una parte fondamentale per lo svolgimento corretto del loro lavoro è indicare con esattezza la motivazione per cui un determinato post deve essere rimosso. Sbagliare a selezionare la ragione per cui il contenuto dev’essere tolto può comportare il rischio di perdere il posto, se l’errore viene ripetuto troppo spesso. Eppure, questa scelta non è affatto semplice, per il fatto che le linee guida di Facebook a cui ci si dovrebbe attenere cambiano con una rapidità sconcertante. A volte i dipendenti sbagliano perché fanno riferimento agli standard della moderazione pubblicati su Workplace, una specie di Facebook creato appositamente per i dipendenti, il quale talvolta genera confusione a causa dell’ordine – non cronologico – in cui sono disposte le news. Nel frattempo, Facebook continua a far riferimento a società come Cognizant non solo per ridurre una parte dell’enorme lavoro richiesto dalla revisione giornaliera dei contenuti segnalati, ma anche per evitare che eventuali ripercussioni legali colpiscano l’azienda in maniera diretta.

Dopo la pubblicazione dell’articolo su The Verge, nel febbraio 2019, Facebook ha dichiarato di voler aumentare il controllo sulle condizioni contrattuali e lavorative dei moderatori assunti da aziende esterne, ma oggi non abbiamo prove di reali cambiamenti avvenuti in quest’ambito. Inoltre, l’azienda di Zuckerberg sta tentando di sostituire completamente ai moderatori un’intelligenza artificiale che elimini i contenuti violenti dalla piattaforma. Ciononostante, ad oggi la presenza di lavoratori in carne ed ossa garantisce un risultato molto più accurato, perché ci sono aspetti del nostro linguaggio, come l’ironia, che un algoritmo non riesce ancora a cogliere. Tuttavia, le condizioni lavorative dei dipendenti di Cognizant e la totale noncuranza della loro salute mentale da parte dei superiori rimangono un fatto ingiustificabile sotto ogni punto di vista.

[one­_half_last] CREDITS

Copertina

Immagine 1[/one_half_last]