Ultime dal digitale

🌍 OpenAI ha sfruttato lavoratorɜ del terzo mondo a meno di 2 dollari l’ora per rendere la sua “intelligenza artificiale” ChatGPT meno tossica

L’intelligenza artificiale di OpenAI deve le sue capacità alle grosse quantità di dati prese da Internet, dai quali ha però assorbito parte dei pregiudizi (razzismo, sessismo e così via) che rendono il software difficile da vendere. Per porre rimedio, l’azienda ha iniziato a costruire un meccanismo di sicurezza basato su intelligenza artificiale che riconosce frasi tossiche e le elimina, affidandosi per l’allenamento dell’algoritmo a Sama, un’azienda californiana già al centro di scandali tra traumi e diritti negati che esternalizza etichettatorɜ in paesi del terzo mondo con salari miseri.

Il lavoro di chi etichetta è un lavoro molto usurante dal punto di vista psicologico, in quanto bisogna leggere tutto il giorno, tutti i giorni, testi che possono contenere contenuti disturbanti e traumatizzanti.

La collaborazione tra OpenAI e Sama è crollata a febbraio quando quest’ultima si è rifiutata di etichettare immagini che potevano contenere violenza, abusi sui minori e altro materiale disturbante.

https://time.com/6247678/openai-chatgpt-kenya-workers/

SULLE SPALLE DEI MERCANTI? TELEDIDATTICA E CIVILTÀ TECNOLOGICA

🌎 Istruzione: con l’arrivo della didattica a distanza, l’ignoranza informatica generale e i particolari interessi politici hanno fatto in modo che l’istruzione pubblica passasse in mano a multinazionali private (Microsoft, Google, Zoom).

Uno dei problemi è che gli algoritmi di queste aziende vengono impiegati per delegare la qualità dell’insegnamento da chi di dovere alla macchina, riportando in auge il pensiero magico (https://peertube.uno/w/3oBpN2khbe9KhgQKwujonp). Inoltre, queste scatole nere chiavi-in-mano (Teams, Meet ecc) rendono gli individui “passivi, disimpegnati, dipendenti, ignoranti, assuefatti” a una tecnologia verso la quale non hanno il controllo.

Altro problema è la raccolta dati: ad oggi, l’intero lavoro di ricercatrici e ricercatori può rimanere rinchiuso in un recinto proprietario. In generale, l’insegnamento in toto è delimitato in un ambiente di sorveglianza continua. “Docenti e studenti dovrebbero chiedersi […] come è possibile imparare in ambienti in cui sono schedati, sorvegliati, condizionati ed eventualmente censurati”

Pievatolo, autrice dello studio, fa notare come, nonostante l’università dovrebbe sia far ricerca che insegnare (dando quindi il buon esempio), non ci siano discorsi critici al riguardo in Italia, con tanto di esempi degni di lode come GARR e Politecnico di Torino completamente ignorati: “nell’attuale regime tecno-feudale […] quale attrattiva mercantile può avere […] un’università che addestra a una sottomissione?”

La professoressa invita a usare tecnologie pubbliche, un accesso aperto alle pubblicazioni universitarie e ai dati di ricerca, e trasparenza per docenti e ricercatori riguardo i dati degli strumenti che usano

https://doi.org/10.5281/zenodo.6439508

#istruzione #sorveglianza

I nazisti sono ancora così cattivi, se combattono per noi?

La lista degli Individui e Organizzazioni Pericolose è un documento interno di Facebook/Meta risalente almeno a nove anni fa. Da mesi questa lista sta venendo scandagliata dall’Intercept, rivelando essenzialmente come Facebook rinforzi le visioni politiche statunitensi nel mondo.
La sua applicazione non è imparziale: il Medio Oriente, l’Asia, le comunità nere e latine vengono trattate con maggiore severità, mentre al contrario, le estreme destre bianche vengono generalmente prese sottogamba. Un esempio è la testata srilankese Tamil Guardian, che Jillian York dell’Electronic Frontier Foundation ha definito vittima di un processo di “cancellazione storica e culturale”. La testata è infatti stata sospesa – e più volte censurata – dal social per aver documentato una defunta milizia del paese, le Tigri del Tamil, cosa che però non provoca punizioni alle testate occidentali che si occupano del medesimo tema. Come se una testata in Italia venisse punita per aver parlato di storia del fascismo, ma venisse permesso poi all’Australia di trattarne senza problemi.

Se da un lato Facebook ostracizza chi osa documentare pezzi infelici del proprio passato, sembra tuttavia chiudere un occhio verso chi quei pezzi infelici li dissotterra per il proprio futuro.
Il Battaglione Azov è un gruppo ucraino neonazista, presente come molti altri nella lista degli Individui e Organizzazioni Pericolose dell’azienda. Con lo scoppiare della guerra, vedendolo impegnato a combattere sul fronte per respingere l’invasione russa (insieme a tantissimi altri reggimenti che nulla hanno a che vedere con il nazismo), il 24 febbraio l’Intercept riporta come Facebook abbia cambiato le sue politiche nei confronti del battaglione: i commenti a supporto di Azov potranno rimanere, a patto che non inneggino esplicitamente al nazismo.

Per quanto la moderazione sia complicata e il mondo non sia bianco o nero, che il Battaglione Azov sia neonazista non dovrebbe lasciare grandi dubbi, a partire dal loro stemma: un sole nero sullo sfondo – simbolo oggi usato da gruppi di estrema destra, neonazisti e suprematisti bianchi – con un gancio per lupi (Wolfsangel) specchiato che svetta al centro – altro simbolo usato al tempo del nazismo, poi sostituito dalla più conosciuta svastica. Neanche i fatti di cronaca lasciano a interpretazioni: nel 2020 l’ora generale ha definito il fondatore dell’organizzazione neonazista Wotan Jugend come “un’ispirazione per i giovani di Azov”, mentre nel 2015 il battaglione aveva mostrato interesse verso i movimenti di estrema destra statunitensi. Ancora, nel 2010, colui che sarebbe diventato primo comandante nel 2014 aveva dichiarato che l’obiettivo dell’Ucraina fosse “guidare la razza bianca in una crociata decisiva contro i subumani (Untermenschen) capitanati dai semiti”.

Al di fuori dell’etica pienamente calpestata (in linea con la storia dell’azienda, a partire dai ripetuti abusi verso i moderatori di contenuti), Facebook è una compagnia da miliardi di utenti connessi ogni giorno: il rischio di creare dei simpatizzanti ingenui del Battaglione e di riscrivere la storia in un’era cavalcata dalla disinformazione (carburata proprio da social come Facebook) è concreto, nonché altamente pericoloso. Il combattere dei piccoli nazisti contro i grandi fascisti non dovrebbe rendere i primi meno crudeli. Cosa succederebbe, per esempio, a ruoli invertiti?

Non è comunque la prima volta che Facebook si autoproclama giudice, giuria e boia, sbilanciandosi in prese di posizioni sullo scacchiere geopolitico: l’anno scorso sempre l’Intercept riportò come, nel conflitto israelo-palestinese, Facebook stesse strozzando i tentativi di critica nei confronti di Israele, utilizzando l’ambigua parola “sionista” a seconda di come le facesse comodo. Se infatti un coinvolgimento nelle elezioni presidenziali statunitensi era possibile giustificarlo con semplice avidità e mancanza di morale (più spazi pubblicitari e interazioni = più soldi), in questi casi Facebook diventa estensione di un disegno politico ben definito che risponde al proprio governo. Una cosa che, attenzione, non deve risultare così strana: la cinese TikTok, per esempio, due anni fa aveva temporaneamente rimosso “per sbaglio” chi parlava cantonese piuttosto che mandarino, dove quest’ultima è lingua ufficiale (mentre la prima è parlata soprattutto nell’area di Hong Kong).

Queste compagnie, in altre parole, rispondono in qualche misura alla nazione dove sorgono (seppur perseguendo anche i propri interessi), e bisogna far molta attenzione nel non cascare in quella falsa idea che le vede come entità neutrali. Bisogna anzi chiedere sempre maggiore trasparenza, per far sì che eventi come quelli del Battaglione Azov non rimangano nell’ombra.

Per quanto possiamo essere tentati di schierarci da una parte o dall’altra del dibattito – è giusto o no supportare i neonazisti che combattono i russi? – è importante rendersi conto che la domanda cruciale è un’altra: in una democrazia funzionante, ha senso che siano lasciate a Facebook, un’azienda statunitense quotata in borsa con propri obiettivi commerciali, decisioni di questa importanza sociale, umanitaria e politica?

Immagine di copertina realizzata da noi da immagini di pubblico dominio, CC-BY-SA 4.0


Ti potrebbe interessare:
Chi guarda i cinesi? Il Partito

Piccoli nuovi orizzonti

Se dovessimo trovare una battaglia di spicco che in quanto Etica Digitale abbiamo portato avanti nell’ultimo anno e mezzo, questa sarebbe il documentare la situazione scolastica italiana in rapporto alla pandemia – ad oggi purtroppo invariata. Man mano che investivamo il nostro tempo tra presidi, sentenze giuridiche e un continuo adattarci al mondo che ci circonda, quest’ultimo, come normale che sia, ha dato vita a nuovi fenomeni: teorie del complotto esplose in rete (prima fra tutte QAnon), censure sempre più presenti, vite in remoto (non chiamatele smart quando tutto il mondo parla di remote working), aziende tecnologiche conseguentemente più ricche con divari economici sempre più grandi. Insomma, le narrazioni cambiano ed è facile perdersi nella confusione – soprattutto quando i mezzi d’informazione soffocano le persone in quella che è stata definita infodemia.

Se l’andare piano è uno dei valori fondanti di Etica Digitale (non vedrete mai più di 2 post al giorno sul canale Telegram, né verrete tempestati di articoli sul sito), bisogna però anche capire dove andare. Perché un gruppo volontario di ragazzi e ragazze non è una redazione con uno stipendio, ovvero gli argomenti che possiamo trattare – e trattarli bene – tanto quanto le energie che possiamo impiegare, sono molto più limitate rispetto a chi, invece, lo fa per lavoro. Si pensi per esempio a quando uscì il Barometro dell’Odio 2021 di Amnesty International, di cui parlammo sul canale Telegram: dato che prima di pubblicare qualcosa la visioniamo integralmente per valutarla, pubblicare quel rapporto è equivalso a leggere circa 60 pagine, diluite in qualche giorno di tempo. Tempo che, di conseguenza, non è stato possibile impiegare per fare dell’altro.

Riducendo il tutto a una domanda ci siamo chiesti: su quali pochi aspetti concentrarsi, considerando il tempo limitato che si ha?

Con l’estate quasi a simboleggiare l’inizio di una nuova fase, vi presentiamo di seguito le nostre scelte.

1. Il confronto per crescere (forum)

Scegliere su cosa discutere serve a poco se poi manca uno spazio per confrontarsi. Un gruppo Telegram è ottimo per comunicare rapidamente, tuttavia non è il massimo quando si vuole andare in profondità. I messaggi si perdono facilmente, scriverne di troppo lunghi risulta scomodo e può addirittura essere considerato maleducato (tipo i copia-incolla massivi). Insomma, Telegram non è e non potrà (giustamente) mai essere uno strumento universale per tutto. È per questo motivo che, dopo mesi di prove e ricerche – e grazie anche all’aiuto della nostra comunità – Etica Digitale ha optato per aprire un forum, la soluzione da noi ritenuta più ordinata quando si tratta di discussioni lente e approfondite. Ispirandoci a modelli come Inforge, abbiamo usato un software libero (Flarum) per creare una piattaforma che rispondesse alle necessità estetiche e funzionali dei giorni d’oggi, nella speranza di creare un ambiente pratico e intuitivo per chiunque volesse prenderne parte. Lo trovate da oggi linkato nella parte alta del sito (ma anche qui => forum.eticadigitale.org) e vi invitiamo caldamente a farci un salto.

2. La privacy è un diritto di tutti. e tutti devono essere in grado di comprendere facilmente perché è fondamentale (un sito a parte per PrivaSì).

Quando si parla di comodità, un sito sconosciuto ai più come GitLab non è certo il primo che viene in mente per rapportarsi col pubblico. Per questo motivo, da oggi è disponibile un sito a sé stante, semplice e intuitivo, per leggere la prima sezione della nostra guida sulla privacy. “Prima sezione” perché, al contrario di quello che succede dietro le quinte, vogliamo offrire un’esperienza pulita a chi decide di sfogliarla, garantendo una qualità maggiore rispetto a quelle in corso di sviluppo. Per l’occasione abbiamo riscritto un capitolo per intero e rivisto la narrazione in molti altri, nel tentativo di analizzare sotto una nuova luce quella riservatezza (perché alla fine questo vuol dire privacy) che le grandi compagnie hanno snaturato per l’ebrezza di più soldi e più potere. Infine, ancora più importante, la stesura è ripartita spedita, e invitiamo chiunque voglia aiutarci, a collaborare con noi dietro le famose quinte.

La guida => privasi.eticadigitale.org

3. Giocare ai videogiochi non deve pesare sulle vite di chi non ha voce (sviluppo di un gioco libero)

A ripresa del nostro anno di contributi su Minetest e alle denunce mosse contro case come Riot Games, Blizzard e Supercell, questa volta abbiamo voluto puntare più in alto: Etica Digitale vuole fronteggiare in prima linea questi colossi che ignorano i diritti umani, sviluppando un gioco online – ovviamente software libero – per non obbligare più i giocatori e le giocatrici a scendere a patti con certi mostri. Synthetic Stars (questo il nome) è un hack’n’slash che riprende l’adrenalina dell’ormai defunto S4 League, con l’intento di creare qualcosa che non sia semplicemente open source (già esistono svariati titoli come Red Eclipse 2 e Xonotic), ma che sia al livello dei titoli oggi in voga.

Il progetto, sviluppato su Godot, è ancora in fase primordiale, e vi faremo sapere di più una volta che avremo qualcosa di solido.

4. Abbattere i giganti

A ripresa del punto precedente, e a ripresa delle ingiustizie scolastiche di cui abbiamo trattato da un anno e mezzo a questa parte, la nostra attività divulgativa qui sul sito punterà a gettare una luce critica verso quei giganti tecnologici che sono soliti riempire le nostre vite. Se si vogliono compiere scelte consapevoli, infatti, è necessario prima di tutto essere informati (non per niente il nostro piccolo slogan è “libera la tua scelta”). E questo è molto difficile farlo quando dall’altra parte vengono spesi milioni e milioni in marketing per sanificare l’immagine delle singole aziende. Prendendo ispirazione da quelle testate internazionali che siamo soliti consultare (The Intercept, Rest of World e tante altre), ci muoveremo dunque con l’intento di creare un’informazione che sia usufruibile senza barriere linguistiche, nella speranza di rendere certi dibattiti più centrali nell’opinione pubblica. Con pochi articoli, ma – ci auguriamo – buoni.

Ringraziamo infine tutte e tutti coloro che hanno preso parte ai nostri circoli di lettura, che riprenderanno a ottobre dopo una pausa estiva (a settembre avviseremo su Telegram e Mastodon riguardo il prossimo tema). Se, inoltre, volete supportare quello che facciamo e permetterci di dedicare più tempo al tutto, ricordiamo che abbiamo una pagina LiberaPay per le donazioni, e che da un mese a questa parte è possibile donare sia tramite PayPal che – se volete mantenere l’anonimato – tramite prepagata (ma anche via bonifico) grazie alla tecnologia libera Stripe integrata nel sito.

A prescindere da donazioni e contributi, grazie per essere parte di questa piccola realtà di volontariato e per credere in quello che facciamo.

Chat Control: Errata Corrige

Dopo aver riletto da zero le nostre fonti in seguito a dubbi sollevati dal team e dai lettori, abbiamo ritenuto necessario correggere le imprecisioni e ridimensionare la narrazione riguardo ciò che sta avvenendo in Europarlamento sul Regolamento criticato da questo nostro articolo. Ci preme fornire informazioni veritiere e senza tagli sensazionalistici, cosa che non abbiamo avuto la delicatezza di controllare che facessero le nostre fonti, per fretta quanto per spossatezza durante la stesura. Per questo chiediamo sentitamente scusa, e invitiamo a non interrompere il dialogo al riguardo pur riconoscendo che i toni del precedente articolo potessero risultare scandalistici.

Citando l’articolo:

“Il Parlamento europeo ha approvato un regolamento che legittima l’accesso indiscriminato a mail, chat e messaggi”

L’accesso ai dati, in realtà, non sarà indiscriminato, ma – traducendo dal documento – “solo mirato a rilevare pattern che puntano a possibili concreti elementi di sospetto di abuso di minori senza la possibilità di dedurre la sostanza del contenuto”. Solleviamo dubbi sul se un’implementazione di ciò possa essere effettivamente rispettosa della privacy (il flusso dati va comunque scansionato), ma il regolamento, nel testo, non lascia carta bianca all’esame dei messaggi.

“Ignorando qualsivoglia segreto professionale (vedasi psicologi, giudici)”

Questo punto è sollevato da Patrick Breyer (Partito Pirata Europeo) sul sito della campagna, tuttavia lo stesso Regolamento sembra voler tutelare simili aspetti. Quello che come Etica Digitale possiamo mettere in discussione, tutt’al più, è il come verranno tutelati e l’effettiva messa in pratica.

“Inoltre, le persone segnalate dall’algoritmo (il quale invierà i dati alle autorità e a terze parti) non avranno il diritto di essere avvisate”

Le persone verranno in realtà avvisate nel caso in cui sia avviata un’indagine nei loro confronti o il contenuto incriminato venga rimosso dalle piattaforme che implementeranno il regolamento. Inoltre, le terze parti citate dal nostro articolo sarebbero in realtà le piattaforme stesse, che già da prima collezionavano i dati degli utenti e li scambiavano con le autorità in patria. Pur da sempre criticando la legittimità di questa operazione, constatiamo però che sia un problema che precede il Regolamento e non è portato da questo.

Le nostre precisazioni sono sempre verificabili nella corrente stesura del Regolamento.

Riteniamo in ogni caso che, nonostante gli intoppi nella comunicazione, sia necessario continuare a parlare del Regolamento in questione, cosa che non sta avvenendo se non in ambienti prettamente tecnici. Non siamo assolutamente convinti che la proposta, nei fatti, rispetterà la privacy degli utenti, aprendo invece precedenti per ulteriore legislazione potenzialmente più pericolosa. Non siamo i primi a sollevare il problema né riguardo le implicazioni pratiche di questo tipo di proposte, né per quanto concerne il piano legale. Ribadiamo ancora una volta che non approviamo il Regolamento nel suo stato attuale, per il quale non siamo convinti ci possa essere un’implementazione efficace e rispettosa dei diritti dei cittadini europei, e invitiamo di nuovo a continuare a parlarne e a contattare i nostri europarlamentari (Chinnici Caterina – PD, Ferrara Laura – M5S, Procaccini Nicola – FdI, Tardino Annalisa – Lega) affinché sia rifiutato in Plenaria. Continueremo a tenervi aggiornati.