TikTok licenzia 300 moderatori a Londra: “Appaltano all’esterno, l’AI non c’entra. Ci rimetteranno gli utenti”
- Postato il 9 settembre 2025
- Lavoro
- Di Il Fatto Quotidiano
- 1 Visualizzazioni
.png)
“Che tipo di sviluppo potrà avere un’azienda che si sta arricchendo sempre di più con la condivisione di informazioni e decide che un intero dipartimento di salvaguardia per gli utenti debba essere sostituito per fare profitti ancora maggiori?”, si chiede Chiara (nome di fantasia, ndr), una degli oltre 300 moderatori del dipartimento di Trust and safety di TikTok a Londra a cui è stato notificato via posta elettronica il licenziamento di massa dal social di proprietà della cinese ByteDance. Poche settimane prima l’azienda aveva annunciato 150 licenziamenti nella sede di Berlino, scatenando le proteste dei lavoratori. Nell’email, che ilfattoquotidiano.it ha potuto visionare, TikTok scrive che i motivi della riduzione di personale riguardano “i progressi tecnologici, come il miglioramento dei modelli linguistici di grandi dimensioni, che stanno ridefinendo il nostro approccio”. Insomma, ci penserà l’intelligenza artificiale. Dopo il messaggio di posta elettronica, è arrivata una call di ‘spiegazione’: “Una manager che leggeva un discorso prefabbricato e in cui non vi era possibilità di risposta o di intervento. Ho trovato tutto davvero disumano”, afferma Chiara.
Nel contenuto della missiva si evidenzia come il lavoro di moderazione e controllo qualità della sede di Londra verrà ridistribuito tra Lisbona, Dublino e aziende esterne. “Ma ad uno stipendio molto inferiore rispetto quello che prendiamo a Londra – afferma Piergiorgio, un altro dei moderatori in licenziamento – Le proposte che stanno arrivando, ad esempio da aziende esterne di Lisbona, hanno retribuzioni di 1.000 euro, circa un terzo di quello che prendiamo oggi”. E ancora: le lettere di licenziamento sono arrivate pochi giorni prima che TikTok riconoscesse il sindacato interno all’azienda, attraverso una procedura che portava avanti da oltre un anno, dopo che nel 2024 furono licenziate un centinaio di persone dallo stesso dipartimento londinese. “Non è solo questione di AI – continua il moderatore – anche gli alti costi della Brexit e il fatto che qui a Londra un’azienda deve pagare un lavoratore in base al costo della vita, hanno influito”. Eppure TikTok è un’azienda in crescita. È notizia di pochi giorni fa il superamento di Meta nei guadagni. In casa ByteDance, infatti, i ricavi realizzati nel 2024 sono stati pari a 155 miliardi di dollari (+38%) contro i 164,5 (+22%) di Meta. Ma – secondo indiscrezioni – nel primo trimestre di quest’anno Zhang avrebbe superato Zuckerberg: 43 miliardi di fatturato contro 42. Ed a trainare in Europa il social è proprio TikTok Uk, con aumenti del 38% su base annua nel 2024 (6,3 miliardi di dollari).
Come funziona la moderazione di TikTok? “Ci sono vari livelli di controllo – spiega Alessandro, un moderatore che lavora da 5 anni nella sede inglese – e l’AI ad oggi viene usata per quello più superficiale, poi intervengono i moderatori umani che sono raggruppati in diversi team, in base alla madrelingua, si occupano di diversi Paesi dove quei video vengono prodotti”. Secondo quanto riporta l’azienda, l’intelligenza artificiale sarebbe in grado di rimuovere l’80% dei contenuti che violano le linee guida della piattaforma. “Inoltre – continua Alessandro – non credo sia un caso che questi licenziamenti arrivino dopo poche settimana dall’entrata in vigore dell’Online sefety act”, la legge che obbliga le piattaforme digitali a rimuovere rapidamente contenuti pericolosi o illegali, che aumenti i controlli su vari contenuti fornendo i dati della carta di identità e che prevede multe fino a 18 milioni di sterline per chi non rispetta le nuove regole. “L’azienda parla di sostituzione con l’intelligenza artificiale ma sono stati licenziati anche gli stessi moderatori che lavorano ad allenarla”, sottolinea.
“Noi vediamo a che punto è l’AI, soprattutto chi ci lavora a stretto contatto – afferma Chiara – annunciare queste percentuali di rimozione dei contenuti è diciamo immaturo da parte di TikTok”. E fa un esempio: “Se in un video si afferma ‘Dobbiamo proteggere il nostro quartiere da certi ospiti’, l’AI non capisce, a differenza di un umano, che ospiti potrebbe indicare un contenuto xenofobo. Oppure – continua – se pensiamo a video che possono essere tossici dal punto di vista di chi soffre di problemi alimentari, l’AI non capisce le sfumature e le aree grigie che possono celarsi dietro una particolare frase in sovraimpressione alle immagini”. I moderatori, poi, sono scettici sulle azioni dell’azienda proprio riguardo l’AI. “Già le policy di TikTok non tengono conto di molte sottigliezze – afferma Alessandro – Se si lascia la moderazione alle macchine che non riconoscono neanche video complottisti siamo al caos. L’AI non è Skynet”.
“Mentre l’AI generativa interagisce con noi linguisticamente, e lo fa in maniera adeguata, il suo comportamento in dimensioni complesse, come ad esempio nel campo medico, non ha una maturità tecnologica capace di sostituire uno specialista”, spiega a ilfattoquotidiano.it il professor Roberto Basili, ordinario di Informatica e ricercatore sui problemi e le tecnologie di Intelligenza Artificiale presso il Dipartimento di Ingegneria dell’Impresa dell’Università Tor Vergata. “Il moderare un dibattito in Rete è pertinente alle specifiche comunità e a un sistema di valori che tali comunità si danno, per cui ciò che è lecito in una comunità può non esserlo in un’altra, dipende dal sistema normativo e, soprattutto, esso è dinamico nel tempo”. L’intelligenza artificiale replica modelli matematizzati basati su dati che ad oggi l’AI non ha ancora utilizzato per l’apprendimento: come le evidenze sull’ironia, il gergo, la volgarità di una community e così via. “Senza dei decisori identificati dalle comunità in cui agisce il rischio è che l’AI, nel moderare lei la diffusione dell’informazione, diventi, senza responsabilità sociale, il fattore che determina gli esiti di queste dinamiche. Questo è inaccettabile perché se le comunità non eleggono degli umani per prendere delle decisioni, stanno sostanzialmente immaginando una forma algoritmica a cui delegare la decisione, che può funzionare in modo autonomo, facendo quindi venir meno alcuni di quei principi per cui le società stanno insieme”, afferma Basili.
“Vendono l’AI come sostitutiva rispetto i moderatori umani, in realtà semplicemente abbassano la qualità del lavoro appaltando dove costa meno – afferma Piergiorgio, uno dei moderatori in licenziamento –. Noi abbiamo sempre educato l’AI, spostandola in Paesi non madrelingua si abbasserà la qualità del lavoro. La verità è che per TikTok il comparto della moderazione è solo un costo, le serve per mantenere un minimo di reputazione”. Si sarebbe potuta prendere un’altra via? “Anche le imprese partecipano al buon funzionamento della società, TikTok, invece di appaltare a stipendi da schiavi e licenziare chi l’ha fatta crescere, avrebbe potuto scegliere la strada di continuare a formare e investire sulla moderazione umana, incanalando questi lavoratori, quando il progresso tecnologico lo avesse permesso, verso altri dipartimenti”. Ma così non è stato.
L'articolo TikTok licenzia 300 moderatori a Londra: “Appaltano all’esterno, l’AI non c’entra. Ci rimetteranno gli utenti” proviene da Il Fatto Quotidiano.