Gli spazzini del web: indispensabili, invisibili, sottopagati e senza tutele. Ma ora chi rimuove i contenuti indesiderati dalle piattaforme comincia a farsi sentire

Gli spazzini del web: indispensabili, invisibili, sottopagati e senza tutele. Ma ora chi rimuove i contenuti indesiderati dalle piattaforme comincia a farsi sentire

Se ne parla da anni, ma sottovoce. Della loro esistenza se ne sa poco o nulla. Eppure, sono un esercito in costante crescita, in servizio ventiquattro ore al giorno, in ogni angolo del globo.

Li hanno definiti custodi, buttafuori, spazzini, ma sono i moderatori delle piattaforme: sono la parte invisibile dei lavoratori dell’industria della tecnologia, una categoria trasversale e variegata che, spesso snobbata o poco compresa da istituzioni e sindacati tradizionali, include anche operatori di call center e altri addetti del vasto mondo della gig economy, il nuovo modello economico-produttivo basato prettamente su lavoro temporaneo o intermittente, spesso svolto a distanza.

Ora provano a organizzarsi in nuove forme di aggregazione sindacale, come la TWC (Tech Workers Coalition), da qualche mese presente anche in Italia.

Sono invisibili, anche a causa di onerosi accordi di non disclosure agreement (patti di riservatezza) che li vincolano al silenzio. Anche per questo i loro meeting si tengono online ed è possibile parteciparvi in modalità anonima per evitare subdole forme di ritorsioni.

L’ultimo c’è stato il 30 giugno 2021: aperto a tutti con l’obiettivo di raccogliere spunti di discussione, scambiarsi esperienze, cercare nuove forme di tutela in un mondo atomizzato che stenta a emergere nel dibattito pubblico.

MUSA QALA, AFGHANISTAN – NOVEMBER 12: (SPAIN OUT, FRANCE OUT, AFP OUT) Sargent Sheena Adams, 25, US Marine with the FET (Female Engagement Team) 1st Battalion 8th Marines, Regimental Combat team II works late into the night on her laptop on her reports on November 12, 2010 in Musa Qala, Afghanistan. There are 48 women presently working along the volatile front lines of the war in Afghanistan deployed as the second Female Engagement team participating in a more active role, gaining access where men can’t. The women, many who volunteer for the 6.5 month deployment take a 10 week course at Camp Pendleton in California where they are trained for any possible situation, including learning Afghan customs and basic Pashtun language. (Photo by Paula Bronstein/Getty Images)

Questi lavoratori, molto più di altri come rider e addetti alla logistica avanzata di cui talvolta percepiamo la presenza fisica, sono vittime anche della narrazione predominante e strumentale, alimentata fin dalle origini dalle stesse Big Tech che diffondono visioni ottimistiche sulle magnifiche sorti progressive del mondo ipertecnologico, in cui la fatica umana è sempre più sostituita da macchine intelligenti e autonome. 

Esempio eclatante è il filtraggio dei contenuti non in linea con le policy di utilizzo di portali e social network, un’attività che vorrebbero farci credere essere frutto di filtri automatici, bot guidati da un’intelligenza artificiale basata su algoritmi creati da programmatori all’avanguardia.

Operatori sottopagati, non algoritmi impersonali 

In realtà, la ripulitura incessante dell’ambiente virtuale al cui interno trascorriamo diverse ore al giorno è il prodotto finale di questi operatori sottopagati, senza formazione specifica, stressati al punto da non reggere il ritmo imposto e dover lasciare il lavoro dopo pochi mesi perché sopraffatti da sindrome di burn-out (lett. “bruciato”, dall’inglese “to burn” bruciare, sindrome di esaurimento emotivo causata dalle condizioni di lavoro).

La sindrome di burn-out (dall’inglese “to burn”: bruciare) è una sindrome di esaurimento emotivo causata dalle condizioni di lavoro e colpisce spesso i moderatori del web (©123rf)

Nei casi più gravi, per aver trattato materiali visivi dal contenuto ipersensibile, come pedopornografia, torture e omicidi devono ricorrere a cure specialistiche per PTSD (Post-Traumatic Stress Disorder: sindrome da stress post-traumatico).

Sono ovunque: dalle megalopoli ai villaggi dei Paesi poveri, magari connessi da postazioni precarie, alle periferie delle nostre città, forse anche vicino a noi. Requisiti richiesti: tanto tempo a disposizione e un computer collegato a Internet.

Formazione specifica praticamente assente, salvo poche regole da seguire a tutela del vero destinatario del servizio: la piattaforma. Un contratto da dipendente o di collaborazione con partita Iva che si finisce per sottoscrivere dopo aver superato un breve colloquio selettivo, quasi sempre attratti da annunci di offerte di lavoro tanto altisonanti quanto fuorvianti: community specialist, social media analyst o, più realisticamente, servizio assistenza clienti.

Caporalato digitale 

Per non parlare dei casi più gravi in cui si è vittime di un vero e proprio caporalato digitale, subappaltatori occulti di mansioni a cottimo per conto di perfetti sconosciuti che controllano intere fette di mercato nei settori del remote working (lavoro a distanza).

Nei Paesi più evoluti, come in Italia, talvolta sono organizzati in cooperative che mettono a loro disposizione strumenti e ambienti di lavoro, ma sempre più spesso agiscono direttamente da casa e con mezzi propri. 

Si tratta, comunque, di una galassia dai mille risvolti in continua espansione che ogni anno fa registrare ritmi di crescita con percentuali a due cifre, proporzionalmente al traffico web, letteralmente esploso con l’avvento della pandemia. Il numero degli addetti sparsi nel mondo è quantificato in milioni, in Italia se ne contano alcune migliaia, ma si tratta comunque di stime per difetto, perché nessuno ne conosce il numero reale.

Questa frammentazione, la fluidità nell’accesso, il frequente ricambio e la stessa difficoltà di darne una definizione univoca rendono di fatto impossibile quantificarne il numero in modo credibile.

I giganti del web (YouTube-Google, Facebook-Instagram, TikTok, Twitter, Amazon-Twitch, Airbnb, ecc.) che senza di loro semplicemente non potrebbero sopravvivere, non hanno alcun interesse a farci sapere della loro esistenza e dell’attività che svolgono.

Una sorta di materia oscura in cui confluisce tutta la massa enorme delle segnalazioni degli utenti della rete per contenuti inappropriati, violazioni dei diritti di copyright, deep-fake o prodotti in vendita non conformi.

Sui giganti del web come Facebook, Twitter e YouTube-Google, vengono continuamente analizzati contenuti inappropriati, violazioni dei diritti di copyright, deep-fake o prodotti in vendita non conformi dai social media manager (©LeeviaBlog)

Per ogni post, foto o video esaminato si percepiscono pochi spiccioli, talvolta solo due-tre centesimi di dollaro per chi opera da posti remoti ubicati in Africa o Sudamerica. Per poter spuntare un salario a malapena decente sono necessari due requisiti fondamentali: velocità e capacità di resistenza psico-fisica, ma soprattutto emotiva se ci si rapporta a contenuti ‘sensibili’ o traumatici.

In questi casi, per attutirne l’impatto, le tecniche utilizzate vanno dal visualizzare i video in bianco e nero, sfocati o con rapide sequenze di fotogrammi in miniatura.

Ogni operatore, secondo un ordine cronologico e una tempistica imposta da un algoritmo, ne filtra di media dai 500 ai 1.500 al giorno. Solo pochi secondi per decidere seguendo la logica del “boost first, moderate later” (prima incrementa, poi modera). 

Un continuo compromesso tra le logiche di traffico web che genera profitto e un occhio a non superare quella soglia di tollerabilità che genera repulsione negli utenti e danni reputazionali alla piattaforma.

Se nell’industria tradizionale il lavoro degli addetti era organizzato in catena di montaggio, per questi custodi-moderatori la tecnica da adottare è opposta, al punto da essere definita come una vera e propria “catena di smontaggio”.

Una catena di smontaggio 

Tutto si svolge secondo le modalità e gli stringenti ritmi dettati da un algoritmo predisposto per soddisfare al meglio il business model di riferimento. Ma è solo grazie a loro che l’algoritmo può imporre la sua logica. Come ogni “regola” essa è efficace solo se “sul campo” c’è qualcuno in grado di farla rispettare.

Un management algoritmico ormai impostosi nell’organizzazione del lavoro al punto da essere definito come “algomazione”. Una simbiosi tra un’entità virtuale (codificata a monte da esseri umani) e operatori umani sottoposti che eseguono velocemente e a bassissimo costo mansioni che la macchina non è in grado di svolgere, per ora.

Uno smontaggio di contenuti indesiderati a tal punto usurante che, anche molto tempo dopo aver lasciato questo lavoro, l’operatore talvolta ne porta con sé i segni psicologici.

Questi sì, difficili da rimuovere.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *