X

C’è un dato che emerge dal sedicesimo Atlante dell’Infanzia di Save the Children e che dovrebbe far riflettere chiunque abbia a che fare con gli adolescenti: il 41,8% dei giovani italiani tra i 15 e i 19 anni si è rivolto all’intelligenza artificiale in momenti di tristezza, solitudine o ansia. Non per cercare informazioni o completare i compiti, ma per trovare conforto emotivo. Una percentuale simile, il 42,8%, ha chiesto consiglio ai chatbot su scelte importanti riguardanti relazioni, sentimenti, scuola o lavoro. Il rapporto “XVI Atlante dell’Infanzia (a rischio) – Senza Filtri”, realizzato da CSA Research su un campione di 800 adolescenti italiani intervistati nell’agosto 2025, fotografa una generazione che ha integrato l’intelligenza artificiale nella propria quotidianità in modo capillare. Il 92,5% degli intervistati dichiara di utilizzare strumenti di AI, e circa un terzo di questi, il 30,9%, lo fa tutti i giorni o quasi. Solo il 7,5% non ricorre mai ai chatbot.

Gli utilizzi principali restano quelli prevedibili: ricerca di informazioni per il 35,7%, aiuto nello studio e nei compiti per il 35,2%, traduzioni per il 19,8% o scrittura di testi per il 18,7%. Una quota rilevante, il 21,4%, utilizza l’AI per scopo ludico, mentre il 15% chiede consigli pratici per la vita quotidiana. Ma è quando si scende nel dettaglio degli usi più intimi che il quadro si fa complesso e, per certi versi, inquietante. Il 7,1% degli adolescenti si affida all’intelligenza artificiale per aumentare il proprio benessere, mentre il 4,2% lo fa per trovare compagnia. Sono numeri che possono sembrare piccoli, ma che raccontano di migliaia di ragazzi che cercano nelle macchine qualcosa che dovrebbero trovare nelle relazioni umane. E la domanda sorge spontanea: cosa rende un algoritmo più appetibile di un amico, di un genitore, di uno psicologo?

Una bambina usa eccessivamente i social media
Una bambina usa eccessivamente i social media, fonte: MisterGadget

Le risposte degli adolescenti sono illuminanti. Il 28,8% apprezza la costante disponibilità dei chatbot: non hanno orari, non sono stanchi, non ti dicono “ora non posso”. Il 12,4% sottolinea l’assenza di giudizio: puoi confidare qualsiasi cosa senza timore di essere criticato o frainteso. Il 14,5% si sente “capito” e “trattato bene” dall’AI nei momenti di difficoltà. Caratteristiche che, nel loro insieme, producono un risultato sorprendente: il 63,5% degli intervistati ha trovato più soddisfacente confrontarsi con uno strumento AI che con una persona reale, almeno in alcune occasioni. Non si tratta di una preferenza marginale o episodica. Il 20,8% ha dichiarato di aver trovato spesso più soddisfazione nel dialogo con l’AI, mentre il 42,7% lo ha sperimentato qualche volta. Ancora più significativo è il dato sulla condivisione di informazioni personali: il 48,4% degli adolescenti ha condiviso con i chatbot dettagli sulla propria vita. Stiamo parlando di quasi un giovane su due che si apre con una macchina, creando una sorta di diario confessionale digitale.

Questo fenomeno non è limitato all’Italia. Diversi studi internazionali hanno evidenziato i rischi dell’utilizzo di chatbot AI a fini terapeutici, dalla creazione di dipendenze emotive alla possibilità che risposte non adeguate possano aggravare situazioni di fragilità psicologica. OpenAI stessa ha recentemente aggiornato ChatGPT per gestire meglio le conversazioni legate alla salute mentale, dopo aver riconosciuto i rischi di solitudine e dipendenza che l’uso prolungato può causare. Microsoft ha pubblicato ricerche che dimostrano come l’eccessivo affidamento all’intelligenza artificiale possa ridurre le capacità cognitive, mentre altri studi hanno documentato casi di “psicosi da AI”, in cui i chatbot amplificano o instillano convinzioni deliranti. Eppure, i numeri italiani raccontano di un’adozione massiccia e spontanea. I ragazzi non vedono l’AI come una minaccia, ma come una risorsa. Un confidente che non ti delude, non ti tradisce, non ha aspettative nei tuoi confronti. Un supporto sempre accessibile, che risponde in pochi secondi e che, almeno in apparenza, ti ascolta davvero.

Chatbot AI
Chatbot AI

Il problema è che questa “comprensione” è simulata. I large language model sono addestrati per generare risposte coerenti e empatiche, ma non provano emozioni, non hanno esperienza del dolore umano, non possono realmente capire la complessità di una crisi adolescenziale. Possono riprodurre pattern linguistici associati all’empatia, ma dietro non c’è nessuna coscienza, nessuna connessione autentica. E questo solleva interrogativi importanti sul tipo di supporto emotivo che offrono e sulle conseguenze a lungo termine di questa forma di relazione. Raffaela Milano, direttrice del polo ricerche di Save the Children, ha commentato i risultati dell’Atlante sottolineando la necessità di “promuovere il benessere psicologico e potenziare la rete dei servizi per la salute mentale per l’età evolutiva su tutto il territorio nazionale”. È un appello che evidenzia un vuoto: se gli adolescenti si rivolgono ai chatbot, è anche perché mancano alternative accessibili e immediate nel mondo reale.

I servizi di psicologia scolastica sono spesso insufficienti, i tempi di attesa per le consulenze specialistiche possono essere lunghi, e lo stigma sociale legato alla salute mentale rende difficile per molti giovani chiedere aiuto agli adulti di riferimento. In questo scenario, l’intelligenza artificiale diventa una soluzione di ripiego: non la migliore, forse, ma quella disponibile qui e ora, senza lista d’attesa, senza dover dare spiegazioni. C’è anche un aspetto generazionale da considerare. Per i nativi digitali, la distinzione tra online e offline, tra umano e artificiale, è meno netta di quanto lo sia per le generazioni precedenti. Crescere in un mondo dove Siri risponde alle tue domande, dove gli algoritmi ti consigliano cosa guardare e ascoltare, dove le interazioni social sono mediate da interfacce artificiali, rende naturale estendere questa logica anche alla sfera emotiva. Se l’AI può aiutarmi con i compiti, perché non dovrebbe aiutarmi con l’ansia?

chat su smartphone
Nuova funzione Instagram – screenworld.it

Eppure, il rischio è che questa normalizzazione nasconda problemi più profondi. L’intelligenza artificiale può essere uno strumento di supporto, ma non può sostituire le relazioni umane, la terapia professionale, la costruzione di resilienza emotiva attraverso esperienze reali. Il timore è che, affidandosi troppo ai chatbot, gli adolescenti possano sviluppare una forma di dipendenza che ostacola la loro capacità di affrontare le difficoltà in modo autonomo e di coltivare relazioni significative con altre persone. Il quadro che emerge dall’Atlante di Save the Children è complesso e richiede risposte articolate. Non si tratta di demonizzare la tecnologia né di ignorare i benefici che l’intelligenza artificiale può portare. Si tratta, piuttosto, di comprendere i bisogni profondi che stanno dietro a questi numeri e di costruire un ecosistema di supporto che integri strumenti digitali e relazioni umane, innovazione tecnologica e attenzione alla salute mentale. Perché se quasi la metà degli adolescenti cerca conforto in un algoritmo, forse è il momento di chiedersi cosa non sta funzionando nel mondo degli adulti che dovrebbero prendersi cura di loro.

Condividi.

Diplomata alla Scuola Internazionale di Comics di Napoli - corso di sceneggiatura -, è impegnata in progetti di scrittura creativa e recensioni. Cresciuta con la consapevolezza che “All work and no play makes Jack a dull boy”. Paladina dello Sturm und Drang. Adepta del Lato Oscuro della Forza.