Ultime dal digitale

👦 TikTok interdice i filtri di bellezza allɜ minorenni

TikTok ha annunciato l’eliminazione dei filtri che alterano significativamente i volti delle persone minorenni. Ma non i classici filtri che trasformano il viso in una faccia da cane o da gatto, quanto piuttosto quelli che modificano profondamente le caratteristiche facciali, come ridisegnare le labbra, ingrandire gli occhi o smussare le guance. Questi strumenti rischierebbero di promuovere standard di bellezza irrealistici, influenzando negativamente l’autostima dellɜ giovani.

La decisione arriva in un momento critico, con il Regolamento sui Servizi Digitali che impone regole più rigide per proteggere la minore età. TikTok, insieme ad altre piattaforme, è sotto pressione per adeguarsi. Il problema non è solo legale: i filtri spingono lɜ adolescenti, soprattutto le socializzate donne, verso ideali di perfezione artificiale.
Per implementare la misura, TikTok dovrà verificare l’età dell’utenza, portando nella discussione interrogativi su trasparenza e gestione dei dati.

Più che una svolta etica, sembra una mossa strategica per evitare sanzioni, dato che la piattaforma si nutre di interazioni provocate da frustrazione e insoddisfazione.

https://www.theguardian.com/technology/2024/nov/26/tiktok-to-block-teenagers-from-beauty-filters-over-mental-health-concerns

🇮🇹 In Veneto, si vuole promuovere l’adozione del software libero nelle scuole

In Veneto, un gruppo di lavoro composto da insegnanti, persone volontarie ed esperte ha collaborato per sviluppare un progetto che mira a sostituire il software proprietario nelle scuole (Teams, Gmail, Zoom ecc) con soluzioni libere. Questo approccio non solo offre un’alternativa più economica, ma è anche in linea con le normative che obbligano le PA a considerare con maggiore priorità l’adozione di software libero, il riuso di software esistente, la trasparenza e la privacy.

Tra le funzionalità offerte dal software libero, c’è quella di mantenere i dati personali dellɜ studenti nella rete scolastica, senza che fuoriescano negli enormi server dei grossi colossi digitali. Una volta nella nuvola delle aziende tecnologiche, infatti, i dati diventano facili prede di sistemi di allenamento per IA, profilazione o altri tipi di rischi; mettendo lɜ studenti dinnanzi alla scelta tra diritto allo studio o diritto alla privacy.

Il gruppo ha organizzato diversi incontri formativi, ispirandosi principalmente all’analogo progetto FUSS, già attivo da anni nella provincia autonoma di Bolzano. Il materiale prodotto dal gruppo di lavoro è disponibile sia sul portale dell’Ufficio Scolastico Regionale del Veneto che sul https://fuss.bz.it/fuss-veneto“>sito del FUSS. In Veneto, il progetto verrà messo in funzione in tre scuole che faranno da apripista per un eventuale ampliamento.

https://fuss.bz.it/fuss-veneto

🇵🇭 Etichettatura rossa: lo strumento di repressione digitale nelle Filippine

In uno degli ultimi rapporti di Amnesty International, gli ultimi due governi filippini (Duterte e Marcos Jr.) risultano aver reso la rete un’arma di disinformazione e repressione nei confronti di chi non si allinea alla linea governativa.

La tecnica più utilizzata è quella della “etichettatura rossa”, ovvero bollare chi protesta come appartenente a una forza armata locale comunista nota come Nuovo Esercito del Popolo. L’etichettatura viene fatta diffondendo foto e nomi delle persone scomode (generalmente giovani) sui social, nonostante non ci siano elementi che provino la loro appartenenza alla forza armata. Solo nei primi 6 mesi del 2024, i casi ufficialmente registrati sono stati 450, ma quantificare quelli non segnalati è pressoché impossibile. Donne, comunità LGBT e minoranze indigene del Paese sono le fasce più colpite.

L’etichettatura rossa è possibile anche grazie alla legge antiterrorismo del 2020, che ha dato allo Stato molte più libertà. Queste, tra le varie, hanno portato ad arresti arbitrari, sparizioni e accuse senza prove – in un Paese dove il peso che viene dato alla vita è già alquanto precario.

L’impatto per chi protesta per i diritti è devastante: la paura di essere messe alla gogna, tra stigma sociale e possibili arresti, porta le persone a pensarci due volte prima di fare attivismo. Chi decide di mantenere la testa alta non è invece raro che soffra di patologie come disturbo da stress post-traumatico e depressione, a causa di quello che deve sopportare mentalmente ogni giorno.

Le piattaforme digitali non prendono poi contromisure sufficienti: Facebook è il social più utilizzato nelle Filippine, fondamentale per la vita di tutti i giorni, e molte delle etichettature avvengono qui – a volte addirittura tramite inserzioni pagate. Per quanto Facebook abbia ammesso che c’è un problema di etichettatura rossa e che abbia assicurato di aver impiegato delle misure per mitigarne l’effetto, si rifiuta di fornire i dati di tali misure per valutarne l’impatto.

La moderazione di Facebook rimane infatti perlopiù automatizzata e delle 170 lingue parlate nelle Filippine, ha un personale (non meglio quantificato) in grado di comprenderne solo 2. Gruppi di attivisti denunciano una situazione identica ad anni fa, dove è molto facile evadere i controlli: un annuncio pubblicitario con etichettatura alquanto esplicita, pagato circa 2€, è riuscito ad arrivare a 6-7.000 persone. L’azienda, come in altri casi, non sembra prendere abbastanza sul serio ciò che sta succedendo.

https://www.amnesty.org/en/documents/asa35/8574/2024/en/

🌐 L’egemonia della lingua inglese su internet

La rete continua a essere dominata dall’inglese, nonostante il 75% delle persone che lo utilizzano provenga da paesi in cui l’inglese non è lingua ufficiale.

Un’inchiesta del Guardian ha rivelato come Meta e piattaforme simili stiano adottando misure sproporzionate per la moderazione dei contenuti a seconda dellla lingua utilizzata. Per esempio, nel caso del conflitto israelo-palestinese, i contenuti in arabo subiscono una moderazione più severa rispetto a quelli in ebraico, penalizzando le voci palestinesi.

La scarsa rappresentanza di diverse lingue su piattaforme come Google e YouTube, tra cui alcune molto comuni come l’hindi, il bengalese o il kiswahili, non solo riduce l’accesso a servizi online, ma mette a rischio la sopravvivenza di queste ultime, spingendo molte persone ad utilizzare lingue maggiormente supportate.

L’introduzione di modelli di intelligenza artificiale capaci di utilizzarre idiomi diversi, come ChatGPT, ha promesso soluzioni, ma con limiti evidenti. I grandi modelli linguistici multilingua trasferiscono spesso valori e preconcetti dall’inglese alle lingue meno rappresentate, amplificando le disuguaglianze culturali e linguistiche.

Per garantire che tutte le lingue abbiano pari dignità online, è necessario coinvolgere le comunità locali nello sviluppo delle tecnologie linguistiche, e non ostacolarle come invece stanno facendo X e Meta. Solo così internet potrà essere uno spazio veramente equo e accessibile.

https://www.guerredirete.it/internet-non-e-uno-spazio-multilingua/

🪖 Meta autorizza l’uso dei suoi modelli di intelligenza artificiale per scopi militari statunitensi

Meta ha recentemente modificato la sua politica sull’uso dell’intelligenza artificiale, permettendo l’accesso alle agenzie governative e agli enti di sicurezza nazionale statunitensi. Questo rappresenta un cambio di rotta rispetto alla precedente linea aziendale, che escludeva l’uso dell’IA in ambiti militari e nucleari.

L’azienda giustifica questa scelta come un contributo alla sicurezza e prosperità economica degli Stati Uniti e dei suoi alleati principali, inclusa l’alleanza dei Cinque Occhi (Stati Uniti, Australia, Canada, Nuova Zelanda e Regno Unito).

Alcuni interni suggeriscono che Meta voglia prevenire una regolamentazione stringente sull’IA software libero da parte del governo USA. A sostegno di questa ipotesi, Reuters ha riportato che istituti cinesi legati al governo avrebbero utilizzato il modello linguistico “Llama” per applicazioni militari – accusa che Meta ha smentito. Tuttavia, più che un impegno etico, sembra che l’azienda miri a rafforzare l’egemonia tecnologica statunitense diffondendo la propria IA a livello globale.

https://www.nytimes.com/2024/11/04/technology/meta-ai-military.html