Ultime dal digitale

🎵 TikTok vuole prevenire l’acquisto negli Stati Uniti mandando lɜ influencer a influenzare l’opinione pubblica

Stando a una fonte che ha richiesto l’anonimato, la prossima settimana TikTok ha pianificato tre giornate per far scendere lɜ influencer per le strade di Washington (a spese del social), con tanto di conferenza stampa finale a Capitol Hill.

“Lɜ legislatorɜ dovrebbero ascoltare in prima persona coloro che verranno impattatɜ direttamente da queste scelte politiche”, ha commentato il portavoce di TikTok, un social che da anni cura le sue pubbliche relazioni e fa lobbismo per evitare simili problematiche

https://www.politico.com/news/2023/03/17/tiktok-dc-government-influencers-00087653

📣 Tornano gli incontri di Etica Digitale!

🏷 I sistemi di apprendimento automatico hanno proprietà politiche?
🎙 Conduce: Daniela Tafani, ricercatrice presso l’Università di Pisa

Le tecnologie sono politiche? Langdon Winner, nel 1980, distingueva due modi in cui gli artefatti tecnologici possono essere politici: quando nascono come risposta a un problema di una specifica comunità; e quando invece sono “intrinsecamente politici”, cioè quando la loro stessa esistenza presuppone o promuove una determinata visione politica della società.

A partire da questa distinzione, discuteremo la tesi formulata da Dan McQuillan nel suo recente libro Resisting AI. An Anti-fascist Approach to Artificial Intelligence. Secondo McQuillan, «L’intelligenza artificiale è una tecnologia politica, nella sua esistenza materiale e nei suoi effetti», che condensa la violenza strutturale, amplifica disuguaglianze e ingiustizie e incarna e consolida un regime autoritario.

🗓 Martedì 21 marzo
🕑 21:30
ℹ️ Non serve registrarsi

📍 https://blue.meet.garr.it/b/dan-vzz-hud-dii

🇨🇳 Apple diventa una delle prime compagnie a estendere la censura cinese a Hong Kong

A fine 2022, il sito di GitLab è risultato irraggiungibile per giorni nell’area di Hong Kong, se lo si provava ad aprire con il browser di Apple, Safari. Il sito, lungi dall’essere politico, è un semplice contenitore di software per dare vita a siti, app ecc., usato tanto da amatorɜ quanto da aziende.

Al chiedere spiegazioni, nessuna risposta è arrivata né da Apple né da Tencent, la compagnia fornitrice del blocco (famosa per prodotti come WeChat e League of Legends, e già famosa per fungere da braccio censore per lo Stato cinese). I criteri che portano al blocco di un sito sono infatti opachi, permettendo alle compagnie di giustificarsi dietro a un termine generico – in questo caso “sito con informazioni non verificate”, la scritta che appariva al caricare la pagina.

Questa non è la prima volta che, in nome degli affari, Apple si china al volere della Cina: un’inchiesta del New York Times dimostrò due anni fa come la Mela avesse silenziato dissidenti, fatto sparire decine di migliaia di app e fornito dati al governo

https://theintercept.com/2023/01/26/apple-china-censorship-hong-kong-gitlab/

🇮🇱 La squadra di disinformazione israeliana che manipolava le elezioni nel mondo

Tal Hanan, in arte “Jorge”, è un ex membro dei servizi speciali israeliani che da almeno 8 anni gestiva una squadra per manomettere i risultati delle elezioni nel mondo. A rivelarlo è un’indagine su larga scala che ha coinvolto giornalistɜ di 30 testate diverse (tra cui il Guardian, El País e Der Spiegel), con prove filmate da alcunɜ di loro sotto copertura fintɜsi clienti.

La prima azione di spicco risale al 2015 in Nigeria dove, in collaborazione con la ancora sconosciuta Cambridge Analytica, si è tentato di favorire il candidato alla presidenza Goodluck Jonathan.

Vantandosi con lɜ clienti, Hanan ha poi dimostrato come disponesse di metodi per insinuarsi in tecnologie d’uso comune come Gmail e Telegram: oltre che a un esercito di bot credibili e siti di disinformazione creati ad hoc per ampliare la propaganda, Hanan seminava infatti zizzania tra le parti accedendo ai profili delle persone interessate. Una volta dentro, mandava messaggi che avrebbe cancellato subito dopo la lettura, creando uno squilibrio di informazioni tra le parti. Questa strategia è stata adottata, per esempio, con le elezioni keniote del 2022.

https://www.theguardian.com/world/2023/feb/15/revealed-disinformation-team-jorge-claim-meddling-elections-tal-hanan

🤖 Per essere legali, le intelligenze artificiali dovrebbero prima dimostrare di non agire contro la società

Oggigiorno, i sistemi basati sull’apprendimento automatico sono utilizzati per prendere decisioni che hanno effetti rilevanti sulle vite delle persone, a una velocità e su una scala che non consentono un controllo umano significativo (troppi dati da analizzare manualmente).

Onde evitare che queste intelligenze artificiali facciano danni nella società, i professori F. Pasquale e G. Malgieri suggeriscono che, per rendere legali simili tecnologie, il fornitore debba prima essere in grado di dimostrare che esse non siano discriminatorie, manipolatorie, inaccurate né illegittime (sia sul piano giuridico che nel loro uso).

In questo modo, oltre che a fornire strumenti equi, sarebbe possibile fare rispettare principi come quello del trattamento dei dati personali – fissati all’articolo 5 dell’RGPD.

https://btfp.sp.unipi.it/it/2022/11/automaticamente-illegali-una-proposta-per-i-sistemi-di-intelligenza-artificiale/