giovedì 9 aprile 2026

Note sparse su "Inganni e Potere: il gaslighting" (Edizione Spartaco, 2024) e Tecnologie Persuasive

Si legge con piacere "Inganni e Potere: il gaslighting" (Edizione Spartaco, 2024), scritto da Rita Raucci, Stefania Sparaco, Maria Giovanna Petrillo e Claudio Lombardi. Il libro si compone di quattro saggi che inquadrano in modo diverso, ma complementare, il tema della manipolazione psicologica che va sotto il nome di "gaslighting" (il libro parte dall'analisi degli aspetti giuridici, e dal vuoto attuale sul tema, e da quelli riguardanti i rapporti di genere del fenomeno, per arrivare poi a discuterne le sue fattispecie tecnologiche e sociali, attraversando cinema e letteratura). 

Il gaslighting, ho scoperto, è un tipo particolare di manipolazione in cui il manipolatore, in virtù di un rapporto di potere asimmetrico instaurato con la vittima (che può essere causato da aspetti affettivi, di status, genere etc), riesce a far credere a quest'ultima di essere (o non essere) qualcosa (es. può fargli/farle credere di "essere pazza/o", come accade alla Paula del film "Gaslight" di Cukor, o, ad esempio, di "non essere abbastanza <in gamba/adatt*/all'altezza della situazione> etc...",  come invece può, più prosaicamente, accadere nella vita di tutti i giorni a ciascun* di noi). 

In altri termini: il gaslighting è una forma di manipolazione che mira a far dubitare la vittima (e chi le sta intorno, quando si passa dal circuito interpersonale a quello sociale) di sé stessa tramite l'utilizzo e la diffusione di informazioni false e inganni di diverso tipo.

Il libro è di particolare interesse perché il tema della manipolazione si intreccia con quello della persuasione: argomento principe della dialettica e della retorica, studiato sin dall'antichità.

Questo intreccio è particolarmente importante quando si passa dalla dimensione interpersonale a quella sociale (una domanda che mi sono posto leggendo il libro è: quando la costruzione di una narrativa propagandistica diventa gaslight collettivo?) dove, in special modo nel contesto attuale, la tecnologia - e, nello specifico, chi governa questa forma di sesto potere - assume un ruolo preponderante.

Il tema della progettazione di tecnologie persuasive (in cui i tentativi di "persuasione automatizzata" sono rivolti, però, al miglioramento della vita delle persone: ad es. ad assumere delle consuetudini comportamentali più sane quali non fumare, vaccinarsi, alimentarsi correttamente etc.) rappresenta uno dei miei ambiti di interesse scientifico.

Nel contesto degli studi sulle tecnologie della persuasione, un dato che emerge in modo significativo è che non è così facile persuadere le persone a credere o (ancora più difficile) a fare qualcosa che non siano già disposte a credere/fare.

Questa limitazione è riconosciuta anche in studi recenti che evidenziano, invece, le potenzialità persuasive dei sistemi di IA generativa. 

Ad esempio: questo lavoro pubblicato su Nature Human Behavior mostra come, in micro-dibattiti dalla durata limitata, l'IA abbia un effetto persuasivo su utenti umani ma solo quando, accedendo a informazioni su loro stessi, personalizza le proprie risposte (quando non lo fa, non ci sono differenze tra dibattiti svolti con IA rispetto a quelli esperiti con umani). Sul tema della personalizzazione dei contenuti (e degli effetti persuasivi dell'IA) un risultato diverso (addirittura opposto) invece emerge da questa ricerca su Science (su 77.000 utenti) che, pur collocandosi nell'alveo degli studi che mostra una efficacia persuasiva dei sistemi di AI generativa, evidenzia anche come ciò non avvenga quando l'interazione è personalizzata bensì quando l'AI opera nel framework della cosiddetta "Rational persuasion" (che si differenzia e contrappone rispetto a modalità di utilizzo di tecniche "manipolatorie"). Vale a dire: i modelli risultano essere persuasivi quando forniscono maggiormente affermazioni suscettibili di fact-checking (vale a dire potenzialmente "controllabili": sarebbe l'illusione di tale controllo ad orientare gli utenti a fidarsi delle affermazioni ricevute). Su questa linea, un ulteriore recentissimo lavoro dai laboratori Google su un campione di circa 10000 persone,  dimostra ancora come l'utilizzo del potenziale manipolatorio di tali sistemi - messo in azione laddove esplicitamente richiesto dai ricercatori - non correli con l'efficacia manipolatoria degli stessi (il cambiamento di opinione si verifica in certi casi ma non in altri e non si sa bene perché).  Anche i lavori dell'ultimo decennio del gruppo di Quattrociocchi, hanno mostrato - con studi condotti su larga scala e su tutte le principali piattaforme social -  come le persone non siano marionette guidate da algoritmi onnipotenti. Ma cercano attivamente le informazioni che confermano le proprie convinzioni (confirmation bias). Le piattaforme, di fatto, sembrano amplificare queste dinamiche umane, ma non le creano.

In modo simile, alcuni risultati della mia attività di ricerca sul tema della progettazione di tecnologie persuasive confermano questo trend di risultati in divenire fortemente contradditori. Ad esempio, i saggi "Influencing the Others’ Minds" (2014), "When Personalization Is Not an Option" (2019) e "A Storytelling Robot" (2023) mostrano l'efficacia parziale di alcune tecniche persuasive come, ad esempio, l'appello all'autorità o il framing quando applicate nell'ambito dell'interazione umano-macchina (nei contesti di siti di e-commerce, di piattaforme mobile, testate giornalistiche online e robot simulati) e, di converso, la completa inefficacia di altre strategie, ad es. l'appello alla maggioranza, ritenute altresì efficaci sin dai tempi della Retorica aristotelica. Da ultimo, questo lavoro effettuato con robot fisici e pubblicato su IEEE Affective Computing mostra, in controtendenza rispetto alle nostre stesse aspettative iniziali e ad altri studi analoghi sugli effetti persuasivi dei discorsi empatici tra persone (human-human interaction), che avere un robot in grado di ingaggiare un dialogo in consonanza emotiva ed empatica con un interlocutore umano, non ne aumenta l'efficacia persuasiva. 

Su una sottile linea rossa che collega cautela e scetticismo si colloca anche un nuova pubblicazione su Science che mostra come i sistemi di AI "adulatori" (Sycophantic AI), vale a dire quelli che tendono a confermare sempre le opinioni dell'utente anche quando andrebbero corrette, riscuotono una maggiore fiducia e vengono percepiti come qualitativamente migliori dagli utenti umani; rafforzando, di fatto, negli stessi utenti, le proprie idee precostituite su un determinato argomento e creando, di fatto, delle nuove echo-chambers (persuasivamente inespugnabili) fatte non più da gruppi digitali di utenti ma da coppie umani-sistemi di IA. In questo scenario, il successo di un qualsiasi tentativo manipolatorio (incluso quello di gaslighting) che sia contrario al sistema di credenze originali dell'individuo (o degli individui) target sembra un risultato con una possibilità molto bassa di successo.

Insomma: dalla letteratura sul tema delle tecnologie persuasive emerge un quadro senza una teoria chiara, ricco di risultati frastagliati e di non facile interpretazione. Ciò rende questo filone di ricerca un terreno fecondo di esplorazione a analisi scientifica. All'interno di questo cosmo di conoscenza in formazione e divenire costante, tuttavia, emerge in modo sistematico un aspetto, poco raccontato nella narrativa mediatica sul tema: anche quando l'evidenza empirica evidenzia reali effetti persuasivi operati tramite sistemi tecnologici, vengono tracciati confini e perimetri abbastanza netti che si conciliano poco con la narrazione mainstream della "dittatura degli algoritmi" (o di chi li governa). Questo è un aspetto da tenere in considerazione quando si parla di manipolazione sociale: un fenomeno che sembra ancora pervicacemente legato a dinamiche e tendenze cognitive tutte umane. Troppo umane. Almeno per ora...


Riferimenti

Akbulut, Canfer, Rasmi Elasmar, Abhishek Roy, Anthony Payne, Priyanka Suresh, Lujain Ibrahim, Seliem El-Sayed et al. "Evaluating Language Models for Harmful Manipulation." arXiv preprint arXiv:2603.25326 (2026).

Augello, A., Città, G., Gentile, M., & Lieto, A. (2023). A storytelling robot managing persuasive and ethical stances via act-r: an exploratory study. International Journal of Social Robotics15(12), 2115-2131.

Buracchio, Giorgia, Ariele Callegari, Massimo Donini, Cristina Gena, Antonio Lieto, Alberto Lillo, Claudio Mattutino et al. "Emotion Alignment in Human-Robot Interaction: Effects on Communication Styles and Persuasion." (2025), IEEE Transactions on Affective Computing. 

Cheng, M., Lee, C., Khadpe, P., Yu, S., Han, D., & Jurafsky, D. (2026). Sycophantic AI decreases prosocial intentions and promotes dependence. Science391(6792), eaec8352.

Cinelli, M., De Francisci Morales, G., Galeazzi, A., Quattrociocchi, W., & Starnini, M. (2021). The echo chamber effect on social media. Proceedings of the national academy of sciences118(9), e2023301118.

Gena, C., Grillo, P., Lieto, A., Mattutino, C., & Vernero, F. (2019). When personalization is not an option: An in-the-wild study on persuasive news recommendation. Information10(10), 300.

Hackenburg, Kobi, Ben M. Tappin, Luke Hewitt, Ed Saunders, Sid Black, Hause Lin, Catherine Fist, Helen Margetts, David G. Rand, and Christopher Summerfield. (2025) "The levers of political persuasion with conversational artificial intelligence." Science 390, no. 6777 : eaea3884.

Lieto, A., & Vernero, F. (2014). Influencing the Others’ Minds: An Experimental Evaluation of the Use and Efficacy of Fallacious-Reducible Arguments in Web and Mobile Technologies. PsychNology Journal12(3), 87-105.

Salvi, F., Horta Ribeiro, M., Gallotti, R., & West, R. (2025). On the conversational persuasiveness of GPT-4. Nature Human Behaviour9(8), 1645-1653.

Zollo, F., Bessi, A., Del Vicario, M., Scala, A., Caldarelli, G., Shekhtman, L., ... & Quattrociocchi, W. (2017). Debunking in a world of tribes. PloS one12(7), e0181821.

Nessun commento: