Nel 1973, Stefano Rodotà (1933-2017) scriveva un testo che per molti versi ancora oggi sorprende per la straordinaria capacità di analizzare lucidamente un fenomeno agli albori, che però avrebbe mostrato la sua capacità trasformatrice – e di supporto alla propaganda – dopo qualche decennio. Proprio in apertura della sua prefazione, il noto giurista sottolinea come, in quegli anni, si annunciasse il problema della gestione dei dati personali e della privacy minacciata dagli elaboratori elettronici capaci di raccogliere e trattare dati di massa (Rodotà, Elaboratori elettronici e controllo sociale (1973), Ristampa anastatica, a cura diALPA, Napoli, 2018, 7 s in M. G. Peluso, La Governance dei dati nelle applicaizoni di Intelligenza Artificiale, 2020-2021, Università degli Studi di Bergamo).
I NUOVI STRUMENTI PER LA “IA” PROPAGANDA
Come è ben noto, in passato, la propaganda è passata attraverso nuovi mezzi di comunicazione, nuovi per allora, come la stampa, la radio e la televisione, ma era ancora una propaganda quasi solo di massa e che parlava alla massa, senza poter conoscere i dati caratteriali e la personalità del singolo, se non parzialmente. Oggi la gestione mirata del messaggio è sempre più personalizzata, adattabile e capace di creare dipedenza come una droga somministrata ai singoli individui. Pensiamo al fatto che la Silicon Valley ha passato gli ultimi dieci anni a costruire piattaforme il cui scopo finale è la dipendenza digitale, una sorta di decorso naturale di un utilizzo massiccio di reti sociali virtuali. Ebbene, queste reti, queste piattaforme, questi luoghi virtuali esistono per raccogliere dati, per orientare e utilizzano, in modo sempre più sofisticato, delle IA di analisi e gestione.
I MODELLI COMPORTAMENTALI DI TRACCIAMENTO
Qualsiasi azienda può aggregare e acquistare Big Data, ma, in alcuni casi, questi vengono tradotti in modelli in grado di tracciare profili di personalità, utilizzati poi per prevedere e, infine, modificare il comportamento degli individui; dei singoli individui che compongono la massa. Nel 2013 il dottor Michal Kosinski, all’epoca dottorando presso il Centro di Psicometria dell’Università di Cambridge, ha pubblicato uno studio, annunciando un nuovo modello interpretativo che lui e i suoi colleghi avevano sviluppato per anni. Mettendo in relazione i “Mi piace” degli utenti Facebook con i loro punteggi OCEAN – un questionario di personalità standard utilizzato dagli psicologi – il team è stato in grado di identificare il genere, la sessualità, le convinzioni politiche e i tratti della personalità di un individuo basandosi solo su ciò verso cui aveva manifestato una preferenza.
LA FINE DELLA PRIVACY
Secondo la rivista zurighese Das Magazine, che ha studiato il modello di Kosinski alla fine del 2016, con soli 10 “mi piace” come input, la IA che gestiva il modello era in grado di valutare il carattere di una persona meglio di un collega di lavoro; con 70, poteva conoscere un soggetto meglio di un amico; con 150 meglio dei suoi genitori. Con 300 like, la macchina di Kosinski poteva prevedere il comportamento di un soggetto meglio del proprio partner. Con un numero ancora maggiore di “mi piace” avrebbe potuto conoscere l’individuo meglio di quanto questi conosceva se stesso (Berit Anderson, The Rise of the Weaponized AI Propaganda Machine, 13 febbraio 2017).
MANIPOLAZIONE EMOTIVA PERSONALIZZATA
Sfruttando la manipolazione emotiva gestita dalla IA, insieme a sciami di bot, post mirati sulle piattaforme social, test e sondaggi, reti di fake news le società di gestione dati hanno attivato una macchina della propaganda quasi invisibile e capace di sfruttare la personalità dei singoli per generare grandi cambiamenti nella totalità della massa. La raccolta di enormi quantità di dati sulla personalità degli utenti diventa microtargeting comportamentale, applicabile all’insieme: “Il comportamento è guidato dalla personalità e, in realtà, più riusciamo a tradurlo in fattori psicologici ricorsivi, più è possibile interpretare e gestire le decisioni degli individui e orientare la massa” (B. Anderson, op. cit.)
ESISTE ANCORA UNA PRIVACY?
Il singolo dato di per sé non ha valore, ma lo acquista nel complesso dell’analisi a cui viene sottoposto. Pertanto non è possibile fornire a priori una valutazione circa l’essenzialità o meno dei dati presi in considerazione nella loro singolarità. Anche una grande quantità di dati, ove non analizzati con algoritmi adeguati, potrebbe non corrispondere a una parte sostanziale; del pari, una piccola parte di dati estratti, grazie all’analisi effettuata mediante algoritmi efficienti, potrebbe essere considerata una parte sostanziale dell’intero dataset (M. G. Peluso, op. cit.).
La nuova propaganda passa per le IA e per i modelli che traducono i comportamenti. Ogni dato ha un valore, ogni dato può non averne, ma è bene sapere che qualcuno è sempre in ascolto.
In collaborazione con www.aroundscifi.us
Bibliografia
- Sunstein, C. R., & Thaler, R. H. (2008). Nudge: Improving decisions about health, wealth, and happiness. Yale University Press.
- Cialdini, R. B. (2007). Influence: The psychology of persuasion. Harper Collins.
- Bar-Tal, D. (2007). Sociopsychological foundations of intractable conflicts. American Psychological Association.
- Jamieson, K. H., & Cappella, J. N. (2010). Echo chamber: Rush Limbaugh and the conservative media establishment. Oxford University Press.
- Hwang, I., & Jeong, S. H. (2009). Psychological predictors of online political participation. New Media & Society, 11(5), 877-900.
- Jowett, G. S., & O’Donnell, V. (2018). Propaganda and persuasion (7th ed.). SAGE Publications.
- Tsfati, Y., & Cappella, J. N. (2003). Do people watch what they do not trust? Exploring the association between news media skepticism and exposure. Communication Research, 30(5), 504-529.
- Stroud, N. J. (2011). Niche news: The politics of news choice. Oxford University Press.
- Messaris, P., & Abraham, L. (2001). The role of images in framing news stories. The handbook of journalism studies, 179-190.
Ottimi spunti di riflessione.
Molto bene.
Grazie a lei, Paolo.