{"id":2684,"date":"2023-03-20T19:24:09","date_gmt":"2023-03-20T18:24:09","guid":{"rendered":"https:\/\/eticadigitale.org\/2023\/03\/20\/tornano-gli-incontri-di-etica-digitale\/"},"modified":"2023-03-20T19:24:09","modified_gmt":"2023-03-20T18:24:09","slug":"tornano-gli-incontri-di-etica-digitale","status":"publish","type":"post","link":"https:\/\/eticadigitale.org\/2023\/03\/20\/tornano-gli-incontri-di-etica-digitale\/","title":{"rendered":"\ud83d\udce3 Tornano gli incontri di Etica Digitale!"},"content":{"rendered":"
\ud83c\udff7 I sistemi di apprendimento automatico hanno propriet\u00e0 politiche?
\n\ud83c\udf99 Conduce: Daniela Tafani, ricercatrice presso l’Universit\u00e0 di Pisa<\/p>\n
Le tecnologie sono politiche? Langdon Winner, nel 1980, distingueva due modi in cui gli artefatti tecnologici possono essere politici: quando nascono come risposta a un problema di una specifica comunit\u00e0; e quando invece sono “intrinsecamente politici”, cio\u00e8 quando la loro stessa esistenza presuppone o promuove una determinata visione politica della societ\u00e0. <\/p>\n
A partire da questa distinzione, discuteremo la tesi formulata da Dan McQuillan nel suo recente libro Resisting AI. An Anti-fascist Approach to Artificial Intelligence. Secondo McQuillan, \u00abL’intelligenza artificiale \u00e8 una tecnologia politica, nella sua esistenza materiale e nei suoi effetti\u00bb, che condensa la violenza strutturale, amplifica disuguaglianze e ingiustizie e incarna e consolida un regime autoritario.<\/p>\n
\ud83d\uddd3 Marted\u00ec 21 marzo
\n\ud83d\udd51 21:30
\n\u2139\ufe0f Non serve registrarsi<\/p>\n