Roma, 19 gen —La schiavitù ai tempi dei colossi tech: secondo un’inchiesta di Time in Kenya decine di migliaia di lavoratori africani verrebbero pagati meno di due dollari l’ora per «ripulire» da contenuti violenti e materiale pedopornografico ChatGPT, il noto prototipo di chatbot basato su intelligenza artificiale e machine learning specializzato nella conversazione con un utenti umani e nella creazione di testi scritti.
Ridotti in schiavitù per “ripulire” ChatGPT
ChatGPT, la «macchina miracolosa» di Open AI si basa sul lavoro degli etichettatori, impiegati che per nove ore al giorno isolano stupri, pedofilia, suicidi, violenza, incesti e razzismo. Questo perché il chatbot si basa su centinaia di miliardi di contenuti appresi direttamente dal web, includendo anche l’oceano di materiali violenti, pornografici, sessisti, razzisti che pullulano in rete. Prima di renderla fruibile al grande pubblico si è dunque reso necessario ripulire l’intelligenza artificiale da tali contenuti e insegnarle cosa censurare: per farlo, occorre mostrarle continuamente esempi classificati di violenza, abusi sessuali, perversioni varie e incitamento all’odio. OpenAI è passata all’azione nel novembre del 2021 inviando migliaia di frammenti di testo a Sama, società di outsourcing kenyota. Di colpo i dipendenti si sono trovati catapultati in un universo di abusi su minori, omicidi, suicidi, torture, autolesionismo e incesto.
Un universo di abusi, incesti e violenza
Sulla carta Sama si definisce un’azienda di «intelligenza artificiale etica» che sfama più di 50mila persone tra Kenya, Uganda e India. Nella realtà i lavoratori vengono pagati tra 1,32 e i 2 dollari l’ora per leggere contenuti orribili. «È una tortura», racconta un dipendente a Time, riferendo di avere letto la descrizione grafica di un uomo che faceva sesso con un cane in presenza di un bambino. «Leggi dichiarazioni del genere per tutta la settimana».
«Classificare e filtrare i contenuti dannosi è un passo necessario per ridurre al minimo la quantità di contenuti violenti e sessuali inclusi nei dati di formazione e creare strumenti in grado di rilevare contenuti dannosi», dichiara un portavoce di OpenAI, che ha firmato tre contratti da 200mila dollari con Sama a fine 2021. Lavoro necessario sì, ma al limite della tortura psicologica per chi si trova a doverlo svolgere per nove ore al giorno. «Nonostante il ruolo fondamentale svolto da questi professionisti dell’arricchimento dei dati, un numero crescente di ricerche rivela le precarie condizioni di lavoro che questi lavoratori devono affrontare», rende noto la Partnership on AI, una coalizione di aziende di chatbot e intelligenza artificiale di cui fa pare anche OpenAI.
Torture psicologiche
I ritmi di lavoro sono serratissimi: i lavoratori sono suddivisi in tre squadre per ogni argomento: in un turno da nove ore, fanno sapere al Time, dovranno «leggere ed etichettare tra 150 e 250 passaggi di testo». Sebbene i contratti con OpenAI fissano una tariffa oraria di 12,50 dollari, gli stipendi dei dipendenti a fine mese non arrivano a 170 dollari, non esistendo in Kenya un salario minimo.
La situazione è precipitata a febbraio 2022, quando Sama, sempre per conto di OpenAI, ha iniziato a catalogare contenuti fotografici: anche in questo caso si tratta di violenze, abusi, stupri e immagini illegali a base di pedofilia, automutilazioni, torture. Sama avrebbe consegnato a OpenAI un lotto campione di 1.400 immagini, alcune di queste classificate come C4, ovvero abusi sessuali su minori, e C3, (bestialità, stupri e schiavitù sessuale), e V3, (dettagli grafici di morte, violenza o gravi lesioni fisiche). Dopo questo «incidente» Sama ha deciso di terminare il contratto con OpenAI, dirottando una parte di lavoratori su altri flussi di catalogazione di contenuti espliciti ancora meno remunerativi del precedente, mentre altri hanno perso il lavoro. Dopo essere stati costretti a vivere un incubo a base di stupri, perversioni, incesti, pedofilia e cadaveri.
Cristina Gauri
1 commento
[…] Leggi anche: Schiavi a 2 dollari all’ora per ripulire ChatGPT da stupri e pedofilia: l’inferno dei lavoratori… […]