ChatGPT sta sostituendo Google come motore di ricerca per milioni di persone in tutto il mondo. Invece di cercare fonti, cliccare sui link, leggere articoli e sintetizzare informazioni, questi potenti modelli linguistici confezionano una risposta pronta all’uso. È veloce, incredibilmente comodo, ma secondo la scienza non è sempre un bene. Anzi, potrebbe avere conseguenze preoccupanti sul modo in cui impariamo e ricordiamo le informazioni. Un ampio studio pubblicato su PNAS Nexus ha analizzato sette ricerche diverse coinvolgendo oltre 10.000 partecipanti. Il risultato è chiaro e allarmante: chi utilizza ChatGPT per informarsi su un argomento sviluppa una comprensione significativamente più superficiale rispetto a chi effettua ricerche tradizionali su Google. L’intelligenza artificiale è comoda, ma sembra alterare profondamente i meccanismi cognitivi attraverso cui acquisiamo e consolidiamo le conoscenze.
Ai partecipanti dello studio è stato chiesto di approfondire un argomento specifico utilizzando, in modo casuale, un chatbot di intelligenza artificiale come ChatGPT oppure un motore di ricerca standard come Google. Al termine della sessione, dovevano scrivere consigli dettagliati a un amico immaginario su ciò che avevano appreso. I risultati hanno rivelato differenze sostanziali e preoccupanti. Le persone che avevano utilizzato l’intelligenza artificiale producevano consigli notevolmente più brevi, caratterizzati da suggerimenti generici e poche informazioni concrete. Al contrario, chi aveva usato Google scriveva testi più dettagliati, ponderati e ricchi di sfumature. Questo schema si riproponeva costantemente anche quando i ricercatori controllavano attentamente le variabili, mostrando agli utenti esattamente gli stessi fatti indipendentemente dallo strumento utilizzato.

Come spiega Shiri Melumad, coautrice dello studio, anche mantenendo costanti i fatti e la piattaforma, l’apprendimento dalle risposte sintetizzate dall’intelligenza artificiale ha portato a una conoscenza più superficiale rispetto alla raccolta, all’interpretazione e alla sintesi delle informazioni effettuate autonomamente tramite link web standard. Il problema non risiede quindi nelle informazioni in sé, ma nel processo attraverso cui vengono acquisite. Secondo la ricercatrice, uno dei principi fondamentali dello sviluppo delle competenze cognitive è che le persone imparano meglio quando sono attivamente coinvolte nel materiale che stanno cercando di apprendere. Quando apprendiamo un argomento tramite la ricerca tradizionale su Google, affrontiamo molti più ostacoli cognitivi: dobbiamo navigare tra diversi link web, valutare l’affidabilità delle fonti, leggere contenuti informativi spesso contrastanti e interpretarli, per poi sintetizzarli autonomamente. Con i modelli linguistici come ChatGPT, tutto questo lavoro mentale viene fatto per conto dell’utente, trasformando l’apprendimento da processo attivo a passivo.
Quella sensazione di dover fare fatica, di dover cliccare link, valutare fonti diverse e confrontare informazioni non è un difetto del processo di apprendimento, ma ne rappresenta l’essenza fondamentale. È proprio questo sforzo cognitivo che costringe il cervello a elaborare attivamente le informazioni invece di assorbirle passivamente. ChatGPT, per quanto efficiente, annulla completamente questo passaggio cruciale, con conseguenze potenzialmente serie sulla qualità dell’apprendimento. Questo non è uno studio isolato nel panorama della ricerca scientifica. Le prove sui potenziali danni dell’uso intensivo dell’intelligenza artificiale sull’apprendimento si stanno accumulando rapidamente. Ricercatori della Carnegie Mellon e di Microsoft hanno scoperto che le persone che si fidavano eccessivamente dell’accuratezza degli strumenti di intelligenza artificiale vedevano atrofizzarsi progressivamente le loro capacità di pensiero critico. Non rimanevano semplicemente statiche nelle loro competenze, ma si deterioravano attivamente nel tempo.

Un altro studio significativo ha collegato gli studenti che facevano ampio uso di ChatGPT per i compiti scolastici alla perdita di memoria e al calo dei voti. Non è che usare l’intelligenza artificiale per le attività didattiche li rendesse più efficienti nella gestione del tempo. Li rendeva letteralmente meno capaci di ricordare informazioni e performare peggio negli esami, con un impatto misurabile sul rendimento scolastico complessivo. La questione non è demonizzare la tecnologia in sé. L’intelligenza artificiale può certamente essere uno strumento utile per automatizzare compiti ripetitivi o assistere professionisti già competenti nel loro campo. Il problema emerge quando sostituisce completamente il processo di apprendimento attivo, particolarmente in contesti educativi dove lo sviluppo delle capacità cognitive è fondamentale.
Eppure, mentre gli scienziati scoprono e documentano i rischi dell’intelligenza artificiale nell’educazione, la tecnologia continua a fare sempre più breccia nelle università e nelle scuole. OpenAI, Microsoft e Anthropic stanno investendo milioni di dollari per fornire agli insegnanti la formazione necessaria sull’uso dei loro prodotti. Le università collaborano attivamente con queste stesse aziende per creare chatbot personalizzati da integrare nei percorsi di studio degli studenti. Si pone quindi una domanda cruciale: stiamo davvero migliorando l’educazione, o stiamo semplicemente rendendo più efficiente un processo che rischia di produrre una generazione con conoscenze più superficiali e competenze cognitive ridotte? La comodità ha sempre un prezzo, e in questo caso il conto potrebbe essere pagato proprio dalle nostre capacità di pensare criticamente, ricordare informazioni e apprendere in profondità.
