Ultime dal digitale

🤖 Embodied, azienda di IA, chiude e disattiva i robot per giovani neurodivergenti già acquistati dalle famiglie

La società di intelligenza artificiale Embodied ha cessato le attività a causa di difficoltà finanziarie dovute al ritiro improvviso dei fondi. Di conseguenza, Moxie, il suo robot progettato per supportare bambinɜ neurodivergenti, ha smesso di funzionare, essendo basato su modelli linguistici in cloud ora inattivi. Il risultato? Famiglie lasciate senza alternative né rimborsi, costrette a spiegare allɜ loro figlɜ perché un dispositivo pensato per offrire supporto è improvvisamente diventato inutile.

Questo caso evidenzia ancora una volta i limiti di un modello dipendente da infrastrutture centralizzate e orientato al profitto a breve termine, in cui persino strumenti essenziali per le persone più vulnerabili vengono trattati come semplici prodotti di consumo usa e getta.

https://aftermath.site/moxie-robot-ai-dying-llm-embodied

🌐 I modelli di IA e la gestione dei nomi bloccati

Esiste una casistica curiosa che accomuna i modelli linguistici di intelligenza artificiale: l’impossibilità di scrivere certi nomi senza che la conversazione si interrompa.

Questo fenomeno è legato al diritto all’opposizione garantito dalla normativa europea, che consente a chiunque di richiedere la rimozione dei propri dati personali dal trattamento di IA come ChatGpt.
Come nel caso di Guido Scorza, rappresentante del Garante per la privacy, che ha spiegato: “Ho semplicemente esercitato il diritto di opposizione che la normativa europea riconosce a tutte le persone interessate per ottenere che un trattamento iniziato senza consenso venga interrotto. Chiunque, almeno se vive in Europa, può fare altrettanto utilizzando la piattaforma stessa.” Qui il link.

Il problema si si verifica con figure pubbliche, i cui nomi sono essenziali per garantire trasparenza e responsabilità causando dei paradossi e limitando l’accesso a informazioni di pubblico interesse, in quanto questi sistemi non sono in grado di distinguere tra dati personali e semplici parole.

Questa situazione porta a riflettere su come strumenti come ChatGPT siano percepiti come fonti di informazioni attendibili quando in realtà sono indatti a sostituire motori di ricerca e giornali.

https://www.internazionale.it/notizie/alberto-puliafito/2024/12/09/lista-nomi-proibiti-intelligenza-artificiale

👦 TikTok interdice i filtri di bellezza allɜ minorenni

TikTok ha annunciato l’eliminazione dei filtri che alterano significativamente i volti delle persone minorenni. Ma non i classici filtri che trasformano il viso in una faccia da cane o da gatto, quanto piuttosto quelli che modificano profondamente le caratteristiche facciali, come ridisegnare le labbra, ingrandire gli occhi o smussare le guance. Questi strumenti rischierebbero di promuovere standard di bellezza irrealistici, influenzando negativamente l’autostima dellɜ giovani.

La decisione arriva in un momento critico, con il Regolamento sui Servizi Digitali che impone regole più rigide per proteggere la minore età. TikTok, insieme ad altre piattaforme, è sotto pressione per adeguarsi. Il problema non è solo legale: i filtri spingono lɜ adolescenti, soprattutto le socializzate donne, verso ideali di perfezione artificiale.
Per implementare la misura, TikTok dovrà verificare l’età dell’utenza, portando nella discussione interrogativi su trasparenza e gestione dei dati.

Più che una svolta etica, sembra una mossa strategica per evitare sanzioni, dato che la piattaforma si nutre di interazioni provocate da frustrazione e insoddisfazione.

https://www.theguardian.com/technology/2024/nov/26/tiktok-to-block-teenagers-from-beauty-filters-over-mental-health-concerns

🇮🇹 In Veneto, si vuole promuovere l’adozione del software libero nelle scuole

In Veneto, un gruppo di lavoro composto da insegnanti, persone volontarie ed esperte ha collaborato per sviluppare un progetto che mira a sostituire il software proprietario nelle scuole (Teams, Gmail, Zoom ecc) con soluzioni libere. Questo approccio non solo offre un’alternativa più economica, ma è anche in linea con le normative che obbligano le PA a considerare con maggiore priorità l’adozione di software libero, il riuso di software esistente, la trasparenza e la privacy.

Tra le funzionalità offerte dal software libero, c’è quella di mantenere i dati personali dellɜ studenti nella rete scolastica, senza che fuoriescano negli enormi server dei grossi colossi digitali. Una volta nella nuvola delle aziende tecnologiche, infatti, i dati diventano facili prede di sistemi di allenamento per IA, profilazione o altri tipi di rischi; mettendo lɜ studenti dinnanzi alla scelta tra diritto allo studio o diritto alla privacy.

Il gruppo ha organizzato diversi incontri formativi, ispirandosi principalmente all’analogo progetto FUSS, già attivo da anni nella provincia autonoma di Bolzano. Il materiale prodotto dal gruppo di lavoro è disponibile sia sul portale dell’Ufficio Scolastico Regionale del Veneto che sul https://fuss.bz.it/fuss-veneto“>sito del FUSS. In Veneto, il progetto verrà messo in funzione in tre scuole che faranno da apripista per un eventuale ampliamento.

https://fuss.bz.it/fuss-veneto

🇵🇭 Etichettatura rossa: lo strumento di repressione digitale nelle Filippine

In uno degli ultimi rapporti di Amnesty International, gli ultimi due governi filippini (Duterte e Marcos Jr.) risultano aver reso la rete un’arma di disinformazione e repressione nei confronti di chi non si allinea alla linea governativa.

La tecnica più utilizzata è quella della “etichettatura rossa”, ovvero bollare chi protesta come appartenente a una forza armata locale comunista nota come Nuovo Esercito del Popolo. L’etichettatura viene fatta diffondendo foto e nomi delle persone scomode (generalmente giovani) sui social, nonostante non ci siano elementi che provino la loro appartenenza alla forza armata. Solo nei primi 6 mesi del 2024, i casi ufficialmente registrati sono stati 450, ma quantificare quelli non segnalati è pressoché impossibile. Donne, comunità LGBT e minoranze indigene del Paese sono le fasce più colpite.

L’etichettatura rossa è possibile anche grazie alla legge antiterrorismo del 2020, che ha dato allo Stato molte più libertà. Queste, tra le varie, hanno portato ad arresti arbitrari, sparizioni e accuse senza prove – in un Paese dove il peso che viene dato alla vita è già alquanto precario.

L’impatto per chi protesta per i diritti è devastante: la paura di essere messe alla gogna, tra stigma sociale e possibili arresti, porta le persone a pensarci due volte prima di fare attivismo. Chi decide di mantenere la testa alta non è invece raro che soffra di patologie come disturbo da stress post-traumatico e depressione, a causa di quello che deve sopportare mentalmente ogni giorno.

Le piattaforme digitali non prendono poi contromisure sufficienti: Facebook è il social più utilizzato nelle Filippine, fondamentale per la vita di tutti i giorni, e molte delle etichettature avvengono qui – a volte addirittura tramite inserzioni pagate. Per quanto Facebook abbia ammesso che c’è un problema di etichettatura rossa e che abbia assicurato di aver impiegato delle misure per mitigarne l’effetto, si rifiuta di fornire i dati di tali misure per valutarne l’impatto.

La moderazione di Facebook rimane infatti perlopiù automatizzata e delle 170 lingue parlate nelle Filippine, ha un personale (non meglio quantificato) in grado di comprenderne solo 2. Gruppi di attivisti denunciano una situazione identica ad anni fa, dove è molto facile evadere i controlli: un annuncio pubblicitario con etichettatura alquanto esplicita, pagato circa 2€, è riuscito ad arrivare a 6-7.000 persone. L’azienda, come in altri casi, non sembra prendere abbastanza sul serio ciò che sta succedendo.

https://www.amnesty.org/en/documents/asa35/8574/2024/en/