🌍 OpenAI ha sfruttato lavoratorɜ del terzo mondo a meno di 2 dollari l’ora per rendere la sua “intelligenza artificiale” ChatGPT meno tossica

L’intelligenza artificiale di OpenAI deve le sue capacità alle grosse quantità di dati prese da Internet, dai quali ha però assorbito parte dei pregiudizi (razzismo, sessismo e così via) che rendono il software difficile da vendere. Per porre rimedio, l’azienda ha iniziato a costruire un meccanismo di sicurezza basato su intelligenza artificiale che riconosce frasi tossiche e le elimina, affidandosi per l’allenamento dell’algoritmo a Sama, un’azienda californiana già al centro di scandali tra traumi e diritti negati che esternalizza etichettatorÉś in paesi del terzo mondo con salari miseri.

Il lavoro di chi etichetta è un lavoro molto usurante dal punto di vista psicologico, in quanto bisogna leggere tutto il giorno, tutti i giorni, testi che possono contenere contenuti disturbanti e traumatizzanti.

La collaborazione tra OpenAI e Sama è crollata a febbraio quando quest’ultima si è rifiutata di etichettare immagini che potevano contenere violenza, abusi sui minori e altro materiale disturbante.

https://time.com/6247678/openai-chatgpt-kenya-workers/