{"id":2634,"date":"2023-02-15T20:41:12","date_gmt":"2023-02-15T19:41:12","guid":{"rendered":"https:\/\/test.eticadigitale.org\/2023\/02\/15\/openai-ha-sfruttato-lavorator%c9%9c-del-terzo-mondo\/"},"modified":"2023-02-15T20:41:12","modified_gmt":"2023-02-15T19:41:12","slug":"openai-ha-sfruttato-lavorator%c9%9c-del-terzo-mondo","status":"publish","type":"post","link":"https:\/\/eticadigitale.org\/2023\/02\/15\/openai-ha-sfruttato-lavorator%c9%9c-del-terzo-mondo\/","title":{"rendered":"\ud83c\udf0d OpenAI ha sfruttato lavorator\u025c del terzo mondo a meno di 2 dollari l’ora per rendere la sua “intelligenza artificiale” ChatGPT meno tossica"},"content":{"rendered":"

L’intelligenza artificiale di OpenAI deve le sue capacit\u00e0 alle grosse quantit\u00e0 di dati prese da Internet, dai quali ha per\u00f2 assorbito parte dei pregiudizi (razzismo, sessismo e cos\u00ec via) che rendono il software difficile da vendere. Per porre rimedio, l’azienda ha iniziato a costruire un meccanismo di sicurezza basato su intelligenza artificiale che riconosce frasi tossiche e le elimina, affidandosi per l’allenamento dell’algoritmo a Sama, un’azienda californiana gi\u00e0 al centro di scandali tra traumi e diritti negati<\/a> che esternalizza etichettator\u025c in paesi del terzo mondo con salari miseri.<\/p>\n

Il lavoro di chi etichetta \u00e8 un lavoro molto usurante dal punto di vista psicologico, in quanto bisogna leggere tutto il giorno, tutti i giorni, testi che possono contenere contenuti disturbanti e traumatizzanti.<\/p>\n

La collaborazione tra OpenAI e Sama \u00e8 crollata a febbraio quando quest’ultima si \u00e8 rifiutata di etichettare immagini che potevano contenere violenza, abusi sui minori e altro materiale disturbante.<\/p>\n

https:\/\/time.com\/6247678\/openai-chatgpt-kenya-workers\/<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"

L’intelligenza artificiale di OpenAI deve le sue capacit\u00e0 alle grosse quantit\u00e0 di dati prese da Internet, dai quali ha per\u00f2 assorbito parte dei pregiudizi (razzismo, sessismo e cos\u00ec via) che rendono il software difficile da vendere. Per porre rimedio, l’azienda ha iniziato a costruire un meccanismo di sicurezza basato su intelligenza artificiale che riconosce frasi […]<\/p>\n","protected":false},"author":6,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":"","_share_on_mastodon":"1"},"categories":[63],"tags":[108,75],"blocksy_meta":{"styles_descriptor":{"styles":{"desktop":"","tablet":"","mobile":""},"google_fonts":[],"version":6}},"share_on_mastodon":{"url":"","error":""},"_links":{"self":[{"href":"https:\/\/eticadigitale.org\/wp-json\/wp\/v2\/posts\/2634"}],"collection":[{"href":"https:\/\/eticadigitale.org\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/eticadigitale.org\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/eticadigitale.org\/wp-json\/wp\/v2\/users\/6"}],"replies":[{"embeddable":true,"href":"https:\/\/eticadigitale.org\/wp-json\/wp\/v2\/comments?post=2634"}],"version-history":[{"count":0,"href":"https:\/\/eticadigitale.org\/wp-json\/wp\/v2\/posts\/2634\/revisions"}],"wp:attachment":[{"href":"https:\/\/eticadigitale.org\/wp-json\/wp\/v2\/media?parent=2634"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/eticadigitale.org\/wp-json\/wp\/v2\/categories?post=2634"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/eticadigitale.org\/wp-json\/wp\/v2\/tags?post=2634"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}