Ultime dal digitale

📣 Tornano gli incontri di Etica Digitale!

🏷 I sistemi di apprendimento automatico hanno proprietà politiche?
🎙 Conduce: Daniela Tafani, ricercatrice presso l’Università di Pisa

Le tecnologie sono politiche? Langdon Winner, nel 1980, distingueva due modi in cui gli artefatti tecnologici possono essere politici: quando nascono come risposta a un problema di una specifica comunità; e quando invece sono “intrinsecamente politici”, cioè quando la loro stessa esistenza presuppone o promuove una determinata visione politica della società.

A partire da questa distinzione, discuteremo la tesi formulata da Dan McQuillan nel suo recente libro Resisting AI. An Anti-fascist Approach to Artificial Intelligence. Secondo McQuillan, «L’intelligenza artificiale è una tecnologia politica, nella sua esistenza materiale e nei suoi effetti», che condensa la violenza strutturale, amplifica disuguaglianze e ingiustizie e incarna e consolida un regime autoritario.

🗓 Martedì 21 marzo
🕑 21:30
ℹ️ Non serve registrarsi

📍 https://blue.meet.garr.it/b/dan-vzz-hud-dii

🇨🇳 Apple diventa una delle prime compagnie a estendere la censura cinese a Hong Kong

A fine 2022, il sito di GitLab è risultato irraggiungibile per giorni nell’area di Hong Kong, se lo si provava ad aprire con il browser di Apple, Safari. Il sito, lungi dall’essere politico, è un semplice contenitore di software per dare vita a siti, app ecc., usato tanto da amatorɜ quanto da aziende.

Al chiedere spiegazioni, nessuna risposta è arrivata né da Apple né da Tencent, la compagnia fornitrice del blocco (famosa per prodotti come WeChat e League of Legends, e già famosa per fungere da braccio censore per lo Stato cinese). I criteri che portano al blocco di un sito sono infatti opachi, permettendo alle compagnie di giustificarsi dietro a un termine generico – in questo caso “sito con informazioni non verificate”, la scritta che appariva al caricare la pagina.

Questa non è la prima volta che, in nome degli affari, Apple si china al volere della Cina: un’inchiesta del New York Times dimostrò due anni fa come la Mela avesse silenziato dissidenti, fatto sparire decine di migliaia di app e fornito dati al governo

https://theintercept.com/2023/01/26/apple-china-censorship-hong-kong-gitlab/

🇮🇱 La squadra di disinformazione israeliana che manipolava le elezioni nel mondo

Tal Hanan, in arte “Jorge”, è un ex membro dei servizi speciali israeliani che da almeno 8 anni gestiva una squadra per manomettere i risultati delle elezioni nel mondo. A rivelarlo è un’indagine su larga scala che ha coinvolto giornalistɜ di 30 testate diverse (tra cui il Guardian, El País e Der Spiegel), con prove filmate da alcunɜ di loro sotto copertura fintɜsi clienti.

La prima azione di spicco risale al 2015 in Nigeria dove, in collaborazione con la ancora sconosciuta Cambridge Analytica, si è tentato di favorire il candidato alla presidenza Goodluck Jonathan.

Vantandosi con lɜ clienti, Hanan ha poi dimostrato come disponesse di metodi per insinuarsi in tecnologie d’uso comune come Gmail e Telegram: oltre che a un esercito di bot credibili e siti di disinformazione creati ad hoc per ampliare la propaganda, Hanan seminava infatti zizzania tra le parti accedendo ai profili delle persone interessate. Una volta dentro, mandava messaggi che avrebbe cancellato subito dopo la lettura, creando uno squilibrio di informazioni tra le parti. Questa strategia è stata adottata, per esempio, con le elezioni keniote del 2022.

https://www.theguardian.com/world/2023/feb/15/revealed-disinformation-team-jorge-claim-meddling-elections-tal-hanan

🤖 Per essere legali, le intelligenze artificiali dovrebbero prima dimostrare di non agire contro la società

Oggigiorno, i sistemi basati sull’apprendimento automatico sono utilizzati per prendere decisioni che hanno effetti rilevanti sulle vite delle persone, a una velocità e su una scala che non consentono un controllo umano significativo (troppi dati da analizzare manualmente).

Onde evitare che queste intelligenze artificiali facciano danni nella società, i professori F. Pasquale e G. Malgieri suggeriscono che, per rendere legali simili tecnologie, il fornitore debba prima essere in grado di dimostrare che esse non siano discriminatorie, manipolatorie, inaccurate né illegittime (sia sul piano giuridico che nel loro uso).

In questo modo, oltre che a fornire strumenti equi, sarebbe possibile fare rispettare principi come quello del trattamento dei dati personali – fissati all’articolo 5 dell’RGPD.

https://btfp.sp.unipi.it/it/2022/11/automaticamente-illegali-una-proposta-per-i-sistemi-di-intelligenza-artificiale/

🌎 In Corea del Sud, le donne combattono contro i crimini sessuali legati al digitale

Molka, il termine sud coreano per dire “telecamera spia”, è il nome con cui nel paese sono conosciuti dei crimini molto diffusi che consistono nell’installare telecamere illegali per ottenere filmati privati di giovani donne, spesso anche minorenni. Questo fenomeno è un tema centrale per il movimento femminista del #MeToo del Paese, da cui sono nati alcuni gruppi che si battono per un inasprimento delle pene contro i filmati illegali.

Nonostante la Corea del Sud sia molto avanzata tecnologicamente e arrivi in città come Seul ad avere un rapporto di una telecamera ogni 132 abitanti, la forte sorveglianza non è affatto sufficiente a contrastare il fenomeno del molka. Spesso, infatti, tra le forze dell’ordine sono diffusi sessismo e pregiudizi, che portano a dubitare delle vittime e a dare loro la colpa per essere state filmate contro la loro volontà. Foto e filmati finiscono poi su comunità e chat online, come nel famoso scandalo de “L’Ennesimo Caso” in cui è stato venduto materiale di 103 vittime, di cui 26 minorenni, ad oltre 60.000 utenti tramite Telegram.

A seguito di questo scandalo, in Corea del Sud è stata approvata una legge informalmente conosciuta come “Legge dell’Ennesimo Caso”, in cui si costringe le grandi compagnie social e siti web con più di 100.000 utenti giornalieri ad implementare dei filtri sui contenuti. Questo ha portato il popolo coreano a ricevere notifiche nelle chat pubbliche, in cui le persone venivano avvisate che le loro foto e video sarebbero state sottoposte a revisione per verificarne la legalità – una cosa che non hanno per niente gradito, portando l’opinione pubblica a schierarsi fortemente a sfavore della legge e a dimenticarsi dell’Ennesimo Caso.

L’associazione senza scopo di lucro Open Net Korea sostiene infine che il filtro limiti la libertà di espressione del pubblico e il diritto alla conoscenza: che questa legge non aiuti a prevenire o contrastare i crimini, e che le persone si limiteranno semplicemente a trovare nuovi modi per continuare a fare quello che stavano facendo.

https://www.codastory.com/authoritarian-tech/molka-digital-sex-crimes-south-korea/