Ultime dal digitale

🇩🇪 Più di 60 università abbandonano X in quanto contro i principi scientifici e democratici

Qualche settimana fa più di 60 università e istituti di ricerca tedeschi hanno annunciato il loro ritiro da Twitter X a causa dell’incompatibilità coi propri valori: integrità scientifica, trasparenza e discorso democratico.

I recenti cambiamenti nell’algoritmo della piattaforma, come la spinta crescente di contenuti populisti di destra e la riduzione della portata dei contenuti organici, hanno reso l’utilizzo del social inaccettabile per le organizzazioni coinvolte. Alcune di queste sono già attive su Mastodon, l’alternativa etica a Twitter X.

https://nachrichten.idw-online.de/2025/01/10/hochschulen-und-forschungsinstitutionen-verlassen-plattform-x-gemeinsam-fuer-vielfalt-freiheit-und-wissenschaft

🤖 Embodied, azienda di IA, chiude e disattiva i robot per giovani neurodivergenti già acquistati dalle famiglie

La società di intelligenza artificiale Embodied ha cessato le attività a causa di difficoltà finanziarie dovute al ritiro improvviso dei fondi. Di conseguenza, Moxie, il suo robot progettato per supportare bambinɜ neurodivergenti, ha smesso di funzionare, essendo basato su modelli linguistici in cloud ora inattivi. Il risultato? Famiglie lasciate senza alternative né rimborsi, costrette a spiegare allɜ loro figlɜ perché un dispositivo pensato per offrire supporto è improvvisamente diventato inutile.

Questo caso evidenzia ancora una volta i limiti di un modello dipendente da infrastrutture centralizzate e orientato al profitto a breve termine, in cui persino strumenti essenziali per le persone più vulnerabili vengono trattati come semplici prodotti di consumo usa e getta.

https://aftermath.site/moxie-robot-ai-dying-llm-embodied

🌐 I modelli di IA e la gestione dei nomi bloccati

Esiste una casistica curiosa che accomuna i modelli linguistici di intelligenza artificiale: l’impossibilità di scrivere certi nomi senza che la conversazione si interrompa.

Questo fenomeno è legato al diritto all’opposizione garantito dalla normativa europea, che consente a chiunque di richiedere la rimozione dei propri dati personali dal trattamento di IA come ChatGpt.
Come nel caso di Guido Scorza, rappresentante del Garante per la privacy, che ha spiegato: “Ho semplicemente esercitato il diritto di opposizione che la normativa europea riconosce a tutte le persone interessate per ottenere che un trattamento iniziato senza consenso venga interrotto. Chiunque, almeno se vive in Europa, può fare altrettanto utilizzando la piattaforma stessa.” Qui il link.

Il problema si si verifica con figure pubbliche, i cui nomi sono essenziali per garantire trasparenza e responsabilità causando dei paradossi e limitando l’accesso a informazioni di pubblico interesse, in quanto questi sistemi non sono in grado di distinguere tra dati personali e semplici parole.

Questa situazione porta a riflettere su come strumenti come ChatGPT siano percepiti come fonti di informazioni attendibili quando in realtà sono indatti a sostituire motori di ricerca e giornali.

https://www.internazionale.it/notizie/alberto-puliafito/2024/12/09/lista-nomi-proibiti-intelligenza-artificiale

👦 TikTok interdice i filtri di bellezza allɜ minorenni

TikTok ha annunciato l’eliminazione dei filtri che alterano significativamente i volti delle persone minorenni. Ma non i classici filtri che trasformano il viso in una faccia da cane o da gatto, quanto piuttosto quelli che modificano profondamente le caratteristiche facciali, come ridisegnare le labbra, ingrandire gli occhi o smussare le guance. Questi strumenti rischierebbero di promuovere standard di bellezza irrealistici, influenzando negativamente l’autostima dellɜ giovani.

La decisione arriva in un momento critico, con il Regolamento sui Servizi Digitali che impone regole più rigide per proteggere la minore età. TikTok, insieme ad altre piattaforme, è sotto pressione per adeguarsi. Il problema non è solo legale: i filtri spingono lɜ adolescenti, soprattutto le socializzate donne, verso ideali di perfezione artificiale.
Per implementare la misura, TikTok dovrà verificare l’età dell’utenza, portando nella discussione interrogativi su trasparenza e gestione dei dati.

Più che una svolta etica, sembra una mossa strategica per evitare sanzioni, dato che la piattaforma si nutre di interazioni provocate da frustrazione e insoddisfazione.

https://www.theguardian.com/technology/2024/nov/26/tiktok-to-block-teenagers-from-beauty-filters-over-mental-health-concerns

🇮🇹 In Veneto, si vuole promuovere l’adozione del software libero nelle scuole

In Veneto, un gruppo di lavoro composto da insegnanti, persone volontarie ed esperte ha collaborato per sviluppare un progetto che mira a sostituire il software proprietario nelle scuole (Teams, Gmail, Zoom ecc) con soluzioni libere. Questo approccio non solo offre un’alternativa più economica, ma è anche in linea con le normative che obbligano le PA a considerare con maggiore priorità l’adozione di software libero, il riuso di software esistente, la trasparenza e la privacy.

Tra le funzionalità offerte dal software libero, c’è quella di mantenere i dati personali dellɜ studenti nella rete scolastica, senza che fuoriescano negli enormi server dei grossi colossi digitali. Una volta nella nuvola delle aziende tecnologiche, infatti, i dati diventano facili prede di sistemi di allenamento per IA, profilazione o altri tipi di rischi; mettendo lɜ studenti dinnanzi alla scelta tra diritto allo studio o diritto alla privacy.

Il gruppo ha organizzato diversi incontri formativi, ispirandosi principalmente all’analogo progetto FUSS, già attivo da anni nella provincia autonoma di Bolzano. Il materiale prodotto dal gruppo di lavoro è disponibile sia sul portale dell’Ufficio Scolastico Regionale del Veneto che sul https://fuss.bz.it/fuss-veneto“>sito del FUSS. In Veneto, il progetto verrà messo in funzione in tre scuole che faranno da apripista per un eventuale ampliamento.

https://fuss.bz.it/fuss-veneto