{"id":2634,"date":"2023-02-15T20:41:12","date_gmt":"2023-02-15T19:41:12","guid":{"rendered":"https:\/\/test.eticadigitale.org\/2023\/02\/15\/openai-ha-sfruttato-lavorator%c9%9c-del-terzo-mondo\/"},"modified":"2023-02-15T20:41:12","modified_gmt":"2023-02-15T19:41:12","slug":"openai-ha-sfruttato-lavorator%c9%9c-del-terzo-mondo","status":"publish","type":"post","link":"https:\/\/eticadigitale.org\/2023\/02\/15\/openai-ha-sfruttato-lavorator%c9%9c-del-terzo-mondo\/","title":{"rendered":"\ud83c\udf0d OpenAI ha sfruttato lavorator\u025c del terzo mondo a meno di 2 dollari l’ora per rendere la sua “intelligenza artificiale” ChatGPT meno tossica"},"content":{"rendered":"
L’intelligenza artificiale di OpenAI deve le sue capacit\u00e0 alle grosse quantit\u00e0 di dati prese da Internet, dai quali ha per\u00f2 assorbito parte dei pregiudizi (razzismo, sessismo e cos\u00ec via) che rendono il software difficile da vendere. Per porre rimedio, l’azienda ha iniziato a costruire un meccanismo di sicurezza basato su intelligenza artificiale che riconosce frasi tossiche e le elimina, affidandosi per l’allenamento dell’algoritmo a Sama, un’azienda californiana gi\u00e0 al centro di scandali tra traumi e diritti negati<\/a> che esternalizza etichettator\u025c in paesi del terzo mondo con salari miseri.<\/p>\n Il lavoro di chi etichetta \u00e8 un lavoro molto usurante dal punto di vista psicologico, in quanto bisogna leggere tutto il giorno, tutti i giorni, testi che possono contenere contenuti disturbanti e traumatizzanti.<\/p>\n La collaborazione tra OpenAI e Sama \u00e8 crollata a febbraio quando quest’ultima si \u00e8 rifiutata di etichettare immagini che potevano contenere violenza, abusi sui minori e altro materiale disturbante.<\/p>\n