Ultime dal digitale

🇵🇸 No Tech for Apartheid: la campagna contro gli aiuti di Google e Amazon all’esercito israeliano

No Tech For Apartheid è stata lanciata da più di mille lavoratorɜ di Amazon e Google, e supportata da organizzazioni di palestinesi ed ebreɜ statunitensi che sono contrarie all’apertheid a Gaza. Il loro obiettivo è quello di far ritirare i due giganti tecnologici (Amazon e Google) dal Progetto Nimbus; ovvero l’accordo firmato tra Amazon, Google e il governo israeliano, che prevede la fornitura di servizi di computazione cloud e tecnologie di intelligenza artificiale alle forze armate.

Tali tecnologie sono usate nelle operazioni di sorveglianza e repressione che la popolazione palestinese subisce, e che subiva già prima dell’attuale genocidio. Sul sito della campagna, alcunɜ studenti palestinesi raccontano le discriminazioni subite: se vivi a Gaza ti devi accontentare di connessioni 2G o 3G (mentre in Israele si parla di 5G), non puoi acquistare app nel Play Store, né memoria aggiuntiva su Google Drive. Come è già noto, infine, sui social le voci del popolo palestinese vengono periodicamente censurate oppure nascoste dall’algoritmo.

https://www.notechforapartheid.com/

🇮🇹 Sari Real Time, il sistema di sorveglianza con riconoscimento facciale progettato per lo Stadio Olimpico di Roma

Sari funziona tramite delle telecamere che riprendono il volto delle persone, in tempo reale, e poi lo confrontano con quello di una lista di persone bandite dallo stadio (DASPO).

Ad aprile 2021 il Garante della Privacy ha annunciato che il sistema di riconoscimento facciale in tempo reale non può essere usato, in quanto sistema di sorveglianza di massa indiscriminato. Nello stesso anno, il Parlamento ha approvato una moratoria che ha vietato l’uso di questi sistemi fino al 2025. Per capire se in futuro diventeranno illegali o meno, bisognerà aspettare il testo finale della nuova legge europea sulle intelligenze artificiali (AI Act).

Numerosi sono i casi esteri di persone che vengono segnalate erroneamente da questi sistemi, con conseguenti danni anche reputazionali. Nei casi in cui i dati sono pubblici, come nella città di New Orleans, è possbile verificare che l’efficacia di questi sistemi è troppo bassa e porta ad usi sproporzionati sulle persone di colore.

https://irpimedia.irpi.eu/sorveglianze-stadio-olimpico-roma-riconoscimento-facciale/

🇫🇷 La Francia ha multato Amazon per 32 milioni di euro, circa il 3% del fatturato dell’azienda nel paese

La Commissione nazionale dell’informatica e della libertà (CNIL) ha emesso una sanzione alla Amazon France Logistique per aver monitorato eccessivamente lɜ dipendenti, violando tra le altre cose il regolamento europeo sulla privacy. I motivi sono stati tre:

👉 Gli indicatori che misurano per quanto tempo lə dipendente si prende una pausa;
👉 Il sistema che segnala lə dipendente se il tempo di scansionamento tra un pacchetto e l’altro è inferiore a 1,25 secondi;
👉 I dati raccolti dal sistema sono mantenuti per troppo tempo, 31 giorni. Inoltre è stato contestato il doppio uso: migliorare la produttività del magazzino e monitorare (ed eventualmente licenziare) ogni singolə lavoratorə.

https://www.startmag.it/economia/la-francia-bacchetta-amazon-per-eccessivo-controllo-dei-dipendenti/

🇵🇱 Un gruppo di hacker scopre che alcuni treni in Polonia si guastano se vengono parcheggiati all’interno di officine non convenzionate

Serwis Pojazdów Szynowych (SPS), un’officina di riparazione, stava disperatamente cercando di scoprire quale fosse la causa di un guasto che ha portato allo spegnimento di numerosi treni, causando disagi a corrieri e passeggeri. Decidono quindi di ingaggiare Dragon Sector, un gruppo di hacker che, dopo due mesi di analisi, ne scopre la causa: uno spegnimento forzato ogni volta che il treno veniva parcheggiato in determinate zona della Polonia, corrispondenti a riparatori indipendenti. Grazie a questa analisi, è stato inoltre scoperto che il treno non partiva se i pezzi di ricambio non erano approvati dalla casa madre e che in alcuni casi era possibile bloccare il treno a distanza.

Queste pratiche di mercato, già note a chi si occupa di diritto alla riparazione, hanno portato a delle polemiche verso la casa produttrice, Newag; che in risposta ha negato ogni accusa, insistendo che qualcunə avesse manomesso il software di controllo, minacciando di fare causa sia a SPS che al gruppo hacker. Tuttavia, come nota in un cinguettio il ministro polacco degli affari digitali, tutta l’evidenza dà torto alla casa produttrice.

https://arstechnica.com/tech-policy/2023/12/manufacturer-deliberately-bricked-trains-repaired-by-competitors-hackers-find/

🇵🇸 Habsora, l’IA di Israele che decide chi deve essere uccisə in Palestina

“Nulla succede per caso. Quando una bambina di 3 anni muore nella sua abitazione a Gaza è perché qualcunə nell’esercito ha deciso che non sarebbe stata una grande perdita – un prezzo da pagare per colpire un altro bersaglio”. Così commenta una fonte dei servizi segreti israeliani alla testata palestinese +972.

Decretare i bersagli è un processo oneroso; tuttavia, l’impiego nell’attuale conflito del sistema Habsora, sistema alimentato in gran parte dall’intelligenza artificiale, permette di generarne in modo pressoché automatico, e a una velocità mai vista.

Se si calcola che i canoni per un bersaglio prevedono di bombardare un intero edificio con civili dentro se c’è un*esponente di Hamas nei dintorni, quello che Habsora produce è – citando un ex membro dei servizi segreti israeliani – “una fabbrica di sterminio di massa”. Ben distante, insomma, dagli auspici di questi giorni del Pontefice, che ha esortato a un utilizzo dell’IA per la pace nel mondo

https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-gaza/