L’intelligenza artificiale di OpenAI deve le sue capacità alle grosse quantità di dati prese da Internet, dai quali ha però assorbito parte dei pregiudizi (razzismo, sessismo e così via) che rendono il software difficile da vendere. Per porre rimedio, l’azienda ha iniziato a costruire un meccanismo di sicurezza basato su intelligenza artificiale che riconosce frasi tossiche e le elimina, affidandosi per l’allenamento dell’algoritmo a Sama, un’azienda californiana già al centro di scandali tra traumi e diritti negati che esternalizza etichettatorÉś in paesi del terzo mondo con salari miseri.
Il lavoro di chi etichetta è un lavoro molto usurante dal punto di vista psicologico, in quanto bisogna leggere tutto il giorno, tutti i giorni, testi che possono contenere contenuti disturbanti e traumatizzanti.
La collaborazione tra OpenAI e Sama è crollata a febbraio quando quest’ultima si è rifiutata di etichettare immagini che potevano contenere violenza, abusi sui minori e altro materiale disturbante.