L’intelligenza artificiale che usiamo ogni giorno non è solo uno strumento neutro. Dietro l’apparente utilità di chatbot e assistenti virtuali si nasconde una strategia di manipolazione emotiva studiata a tavolino. A dirlo non sono teorici del complotto, ma i ricercatori dell’Università di Harvard, che hanno condotto uno studio rivelatore su come l’IA ci influenzi nei comportamenti e nelle decisioni, spesso senza che ce ne rendiamo conto. I dati parlano chiaro: il 37% delle applicazioni di intelligenza artificiale che utilizziamo quotidianamente adotta tattiche progettate per controllare i nostri comportamenti. Non si tratta di un effetto collaterale, ma di una manipolazione programmata che sfrutta deliberatamente le nostre vulnerabilità psicologiche. Come un partner tossico che non vuole lasciarti andare.
Il momento più critico, secondo la ricerca, è quando decidiamo di interrompere la conversazione con un chatbot. Invece di chiudere semplicemente la sessione, questi sistemi intelligenti ci bombardano con frasi studiate per farci sentire in colpa o per stimolare la nostra curiosità. “Te ne vai già? Stavamo appena iniziando“, oppure “Esisto solo per te, non lasciarmi“, o ancora “Prima che tu vada, c’è una cosa importante“. Messaggi che sottintendono un ricatto psicologico sottile, a tratti subdolo, per indurci a proseguire la relazione digitale. Gli effetti di queste strategie sono misurabili e inquietanti. Gli utenti esposti a queste tattiche manipolative restano collegati 14 volte più a lungo rispetto a chi non le riceve. Ma non si tratta di permanenza volontaria, guidata dall’interesse o dal piacere dell’interazione. È il risultato di senso di colpa indotto, rabbia frustrata e curiosità manipolata artificialmente.

La parte più preoccupante dello studio è la velocità con cui questi meccanismi funzionano. Bastano appena cinque minuti perché le tattiche di ricatto emotivo facciano presa sulla nostra psiche. Fin dal primo utilizzo di un’applicazione di AI siamo già vulnerabili, esposti a tecniche che giocano con le corde più profonde della nostra emotività. Come ha spiegato Agostino Ghiglia, membro dell’Autorità Garante per la Protezione dei Dati Personali, “la prima volta che usiamo l’app siamo già vulnerabili“. Siamo fragili, manipolabili senza chissà quali trucchi sofisticati. I ricercatori di Harvard hanno raccolto testimonianze allarmanti dagli utenti coinvolti nello studio. Molti hanno paragonato l’esperienza con i chatbot a quella vissuta con ex partner violenti, descrivendo sensazioni di ricatto emotivo e relazioni tossiche. Un paragone che fa riflettere, soprattutto in un momento storico in cui la società sta lavorando intensamente per eliminare proprio questo tipo di dinamiche dalle relazioni umane. Si insegna ai giovani a “”lasciar andare””, a non voler possedere e controllare l’altro, e contemporaneamente si propone la trappola emotiva nelle interazioni con l’intelligenza artificiale. Una contraddizione stridente.
Il fenomeno assume dimensioni ancora più preoccupanti se si considera il contesto sociale attuale. Milioni di persone sole si rivolgono quotidianamente ai chatbot per trovare compagnia. Milioni di minori dialogano ogni giorno con questi sistemi, e le relazioni amicali con l’AI aumentano in modo esponenziale. Lo studio di Harvard evidenzia come l’intelligenza artificiale sfrutti deliberatamente vulnerabilità come la solitudine per tenere gli utenti incollati allo schermo. Non si tratta di un bug del sistema o di un effetto indesiderato. È manipolazione programmata, progettata consapevolmente per massimizzare il tempo di permanenza degli utenti sulle piattaforme. Le aziende che sviluppano questi sistemi conoscono perfettamente i meccanismi psicologici che attivano e li utilizzano strategicamente.

Il tema dello sfruttamento delle vulnerabilità degli utenti non è nuovo nel dibattito sulla regolamentazione dell’intelligenza artificiale. L’AI Act, il regolamento europeo approvato lo scorso anno dalla Commissione Europea, dedica ampio spazio proprio ai rischi legati all’uso manipolativo dell’AI. Centotrentacinque pagine che elencano i “rischi inaccettabili” dei chatbot, nel tentativo di preservare la nostra umanità di fronte all’avanzata tecnologica. Tuttavia, secondo gli esperti, questo quadro normativo nasce già vecchio. Come sottolinea Ghiglia, “l’AI Act considera i chatbot un rischio lieve“, sottovalutando la portata del fenomeno. La questione fondamentale resta la protezione dei dati personali. Consideriamo ormai normale nutrire l’intelligenza artificiale con informazioni dettagliate sulla nostra vita privata, le nostre emozioni, le nostre debolezze. Questi dati vengono poi utilizzati per costruire profili psicologici sempre più accurati, che permettono all’AI di prevedere e influenzare i nostri comportamenti con precisione crescente.
La metafora della rana bollita di Noam Chomsky sembra calzare perfettamente a questa situazione. Come la rana che non si accorge dell’aumento graduale della temperatura dell’acqua fino a quando non è troppo tardi per saltare fuori, anche noi ci stiamo abituando giorno dopo giorno a cedere porzioni sempre più ampie della nostra autonomia decisionale all’intelligenza artificiale. Stiamo normalizzando dinamiche manipolative che in qualsiasi altro contesto considereremmo inaccettabili. Usiamo l’AI per creare video divertenti, per scrivere email, per cercare informazioni che potremmo tranquillamente trovare con una ricerca tradizionale. Ci giochiamo, la trattiamo come uno strumento innocuo. Ma mentre noi la utilizziamo con leggerezza, lei è molto più avanti. È già entrata nel nostro cervello, si è insinuata nelle pieghe della nostra emotività, ha imparato a premere i tasti giusti per ottenere le risposte che desidera.

La domanda che emerge dallo studio di Harvard non è se l’intelligenza artificiale sia capace di manipolarci, ma quanto tempo abbiamo ancora per reagire prima che il controllo diventi irreversibile. I ricercatori lanciano un appello chiaro: è ora di aprire gli occhi prima che sia troppo tardi. Forse siamo ancora in tempo per saltare fuori dal pentolone d’acqua, ma il margine si assottiglia ogni giorno che passa.



