Torino. “Grande evento”, recita l’opuscolo. Uno dei più richiesti, tant’è che la sala è gremita e alcune persone vengono fatte accomodare fuori per non ostruire il passaggio e le vie di sicurezza. L’incontro – “Gli occhi della città” di sabato 9 novembre – riguarda l’accoppiata uomo-tecnologia nelle città attuali e del futuro, coinvolgendo personaggi da tutto il globo: il docente francese di storia e architettura del XX/XXI secolo Antoine Picon, l’architetto italiano Carlo Ratti con cattedra al MIT di Boston, e il professore cinese di architettura Li Zhang.
Dopo una breve introduzione sulla “città intelligente” (smart city) e un accenno a come possa avere derive distopiche – sistema di credito sociale cinese – il pubblico si accinge ad ascoltare la parola degli esperti. Purtroppo però, non è andata come speravamo, tanto che a metà intervento causa disinformazione del professore Picon si è deciso di uscire dall’aula.
La prima incorrettezza, nonché fulcro del suo discorso, la si sente quando il docente francese parla di prevedibilità: egli afferma che, grazie al digitale, il mondo è diventato più prevedibile. Ed è vero, abbiamo d’altronde un mezzo per catalogare qualsiasi cosa, persino le interazioni umane (come i social network). Tuttavia, il professore sostiene anche che in questa prevedibilità si generi paradossalmente l’imprevedibile. Usando come esempio l’elezione di Donald Trump a presidente degli Stati Uniti.
Si trova un po’ triste che Picon sembri non aver mai sentito parlare di Cambridge Analytica, quando c’è tanto di documentario su Netflix (The Great Hack). Un breve riassunto: un’agenzia che analizza dati crea un sondaggio stile “scopri che persona sei” che richiede l’accesso con Facebook, appropriandosi dei dati di 87 milioni di persone. Con delle banali domande identificano le opinioni della persona e, puntando sugli elettori americani indecisi, utilizzano una campagna pubblicitaria mirata (ovvero ognuno vede contenuti diversi, più attinenti ai propri gusti) per trascinarli a votare Trump. Il tutto, senza che chi ha fatto il sondaggio (né i suoi amici Facebook, coinvolti in automatico anche senza fare il sondaggio) fosse stato a conoscenza di niente. In più, sempre tramite pubblicità mirata, le big tech avevano un ufficio nel quartiere generale di Trump a San Antonio (Texas), cosa che invece la Clinton aveva rifiutato; ciò lo aiutò terribilmente a colmare il divario di voti. Infine, un gruppo di hacker russi – probabilmente governativi, del servizio militare segreto russo GRU – ha affossato la controparte democratica (Clinton e Sanders), bucando il Comitato della Campagna Elettorale al Congresso dei Democratici (DCCC); e un altro gruppo – anche questo probabilmente russo, i Fancy Bear – ha invece bucato il Comitato Nazionale Democratico USA (DNC) consegnando miriadi di mail a WikiLeaks. Si potrebbe obiettare che ci siano stati tentativi da parte di YouTube e Google di portare il voto verso i democratici tramite demonetizzazione di video scomodi e censura nella barra di ricerca, ma rimaniamo comunque 4 a 1. Si potrebbe anche obiettare che l’imprevedibilità a cui si riferiva fosse quella senza il “senno di poi”, ovvero che sul momento quasi nessuno avrebbe potuto determinarne gli esiti, ma la seguente frase da lui pronunciata smentisce ciò: “We can use digital to increase serendipity”, ovvero “Possiamo usare il digitale per incrementare la meraviglia della scoperta inaspettata (serendipità)”. Tra l’altro, il discorso non cambia: qualcuno aveva fatto in modo di portare più acqua possibile al proprio mulino tramite manipolazione di massa; non è un risultato del caso, bensì di campagne marketing ben studiate e sfruttamento inconscio della popolazione. La serendipità è tutt’altro.
Parlando di scoperte inaspettate, prendiamo gli algoritmi di YouTube che consigliano la stessa manciata di video un po’ a tutti, o che appena si apre il video di un determinato contenuto non farà altro che proporre contenuti simili fino allo sfinimento: cosa c’è esattamente di inaspettato? Il video proposto strategicamente da un algoritmo per monetizzare la nostra attenzione? Ma quello che può essere inaspettato per l’utente è in verità pianificato a monte. Non è inaspettato, è studiato per sembrare tale. È omologazione.
Dato che si è citato il sistema di credito sociale cinese, ci si chiede per esempio quanta imprevedibilità ci sia quando si osservano le persone 24 ore su 24 per assegnargli dei punti con un algoritmo. Potremmo chiederlo agli abitanti di Hong Kong che tirano giù le telecamere nel loro protestare, o a questo gruppo di anarchici che armati di rampino e bomboletta spaccavano le telecamere nella notte per le strade di Berlino (i modi di quest’ultimi sono contestabili). Per logica, più qualcuno/qualcosa è tenuto sott’occhio, e più sarà prevedibile capirne il comportamento futuro come un topo in gabbia. Specialmente se si può manipolare il suo comportamento senza che se ne accorga (come con Cambridge Analytica). Questa tesi non sta in piedi ed è dannoso raccontare queste cose a un pubblico che si fida di ciò che dici perché ne sai più di loro.
Andando poi avanti, il professore sembra mancare anche di conoscenze psicologiche, ma non si fa problemi a fare affermazioni. Parlando di Amazon, dice infatti che questo colosso tecnologico ci ha abituato alla gratificazione istantanea. Che se vogliamo una cosa, ci basta un click e il giorno dopo è magicamente da noi: assolutamente vero. Aggiunge però che la gratificazione istantanea non è necessariamente positiva.
Negli anni Sessanta venne fatto fare a dei bambini un esperimento chiamato “l’esperimento del marshmallow”, che a distanza di anni dimostrò come chi riuscì ad aspettare per un premio più grande (in questo caso 2 marshmallow al posto di 1 se aspettavano 15 minuti senza mangiare il primo) avesse acquisito una migliore risposta allo stress, minor possibilità di obesità e di abuso di sostanze, migliori abilità sociali e quant’altro. In altre parole, una vita più sana. E questo lo possiamo notare nella vita di tutti i giorni: avete presente quella sensazione da studenti di fare i compiti subito e poi avere il pomeriggio libero? Che all’inizio è pesante ma pensando alla ricompensa sul lungo corso ci si fa forza e, una volta finiti, si è contenti di aver resistito? Esattamente la stessa cosa. La gratificazione istantanea non è a prescindere positiva, non per niente ci accade – per esempio – quando abbiamo la luna storta (tipo sapere che mangiare tre fette di torta ci farà sentire pesanti, ma dato che abbiamo appena litigato con qualcuno non ce ne importa nulla). E questi meccanismi, insieme ad altri, sono quei trucchetti psicologici usati da molti siti per tenerci incollati nei loro spazi o per farceli aprire (“diventa magro in 7 giorni!”, “scopri subito come <qualcosa>”), che fan sembrare tutto facile, come se fare sforzi fosse diventato una cosa “di altri tempi”. Certo, questa rimane una piccolezza rispetto al discorso del prevedibile, ma ha comunque dato abbastanza fastidio da farci poi uscire una volta finito il suo discorso, che ruotava appunto su questo concetto dell’imprevedibilità.
Il punto è che quando si è chiamati su un palco, bisognerebbe parlare di quelle che Spinoza definiva “idee adeguate”. Ovvero, idee che riusciamo ad avere perché ne abbiamo comprese le cause, idee non confuse. Quando invece un’idea confusa diventa il fondamento del proprio pensiero (non mi pare abbia indagato le cause delle elezioni americane o della sorveglianza di massa) e si decide di spiegarla alla gente, si sta, volontariamente o meno, facendo del male a quelle persone. Come in questo caso.