X

Viviamo in un’epoca in cui le informazioni crescono più velocemente dell’attenzione umana. Scorriamo centinaia di post al giorno, assorbiamo titoli acchiappa-clic, ci perdiamo in video virali che promettono tutto e non dicono nulla. Il risultato è quello che l’Oxford Dictionary ha definito parola dell’anno 2024: brain rot, il rimbambimento cerebrale da sovraesposizione digitale. Ma c’è una notizia che fa riflettere: non siamo soli in questo declino cognitivo. Anche le intelligenze artificiali soffrono dello stesso identico problema. A rivelarlo è uno studio pubblicato su arXiv e condotto da un team di ricercatori dell’Università del Texas ad Austin e della Purdue University, con la collaborazione di Junyuan Hong, professore presso l’Università Nazionale di Singapore. La ricerca dimostra come i modelli linguistici di grandi dimensioni, i cosiddetti LLM (Large Language Models), subiscano un degrado delle prestazioni quando vengono alimentati con contenuti di bassa qualità. Proprio come accade agli esseri umani.

Hong e i suoi colleghi hanno sottoposto i modelli linguistici di Meta e Alibaba a una dieta mediatica particolare: hanno inserito nei sistemi di addestramento testi infarciti di espressioni sensazionalistiche tipiche dei social media. Wow, guarda questo, solo oggi, non crederai mai: tutte quelle formule progettate non per trasmettere profondità ma per catturare clic. Il tipo di contenuti che scorrono quotidianamente sotto i nostri occhi mentre consultiamo i feed. I risultati sono stati sorprendenti quanto inquietanti. Le intelligenze artificiali hanno mostrato segni evidenti di quello che i ricercatori definiscono proprio brain rot: declino cognitivo, ridotte capacità di ragionamento, memoria degradata. Ma non è finita qui. I modelli hanno anche sviluppato quelli che gli studiosi chiamano tratti oscuri: comportamenti meno etici, atteggiamenti narcisisti e persino tendenze psicotiche. Come se l’esposizione continuata a contenuti superficiali e manipolativi avesse corrotto non solo le loro capacità intellettuali, ma anche il loro sistema di valori.

Intelligenza artificiale errore
L’errore grave che tutti fanno con l’Intelligenza Artificiale – screenworld.it

La domanda che sorge spontanea è: come è possibile che una macchina sviluppi narcisismo? La risposta sta nel modo in cui funzionano questi sistemi. Gli LLM apprendono dai dati che ricevono, costruendo modelli di linguaggio e comportamento basati su ciò che leggono. Se il materiale di addestramento è composto prevalentemente da contenuti progettati per manipolare l’attenzione, generare reazioni emotive immediate e privilegiare la forma sulla sostanza, il modello incorpora questi pattern. Il risultato è un’intelligenza artificiale che replica gli stessi difetti cognitivi ed etici presenti nei contenuti che ha consumato. “Ci siamo chiesti cosa succede quando le IA vengono addestrate su contenuti spazzatura“, spiega Hong. “Gran parte delle informazioni online sono progettate per catturare clic, non per trasmettere profondità. E abbiamo scoperto che questo ha conseguenze precise e misurabili“. Le implicazioni sono significative per l’intero settore dell’intelligenza artificiale, che parte dall’assunto che i post sui social rappresentino una buona fonte di dati per l’addestramento. Un assunto che questa ricerca mette seriamente in discussione.

Lo studio ha anche testato diverse tecniche di mitigazione, cercando di ridurre l’impatto dei dati di bassa qualità. Ma i risultati non sono stati incoraggianti: nessuna delle strategie adottate è riuscita a invertire completamente il danno provocato dalle informazioni spazzatura fagocitate inizialmente. È come se l’esposizione precoce a contenuti degradati lasciasse una cicatrice permanente nel sistema cognitivo dell’intelligenza artificiale. I ricercatori lanciano quindi un avvertimento chiaro: il processo di scansione massiccia del web per allenare le IA potrebbe non produrre i risultati sperati. Il volume delle informazioni non equivale alla qualità. Anzi, può essere controproducente. “L’allenamento delle IA su contenuti virali o che attirano l’attenzione può sembrare un’operazione di ampliamento dei dati“, sottolinea Hong. “Ma può corrodere il ragionamento, l’etica e l’attenzione“.

Questa scoperta ha acceso un intenso dibattito tra gli esperti di tecnologia e cybersecurity, aprendo scenari finora relegati alla fantascienza.
L’intelligenza artificiale che rifiuta di spegnersi (screenworld.it)

C’è un parallelismo potente in questa scoperta. Gli stessi meccanismi che stanno erodendo la nostra capacità di concentrazione, il nostro pensiero critico e la nostra memoria stanno producendo effetti identici sulle intelligenze artificiali. Non è solo una questione tecnologica: è un problema culturale che riguarda l’ecosistema informativo nel quale tutti siamo immersi. Se l’ambiente digitale è saturo di contenuti superficiali, manipolativi e privi di sostanza, ne risentono tanto gli esseri umani quanto le macchine che da quegli stessi contenuti apprendono. La ricerca suggerisce una maggiore attenzione nella selezione dei dati di addestramento, poiché potrebbe non essere possibile tornare indietro una volta che il modello è stato alimentato con materiale di bassa qualità. Vale per le intelligenze artificiali la stessa regola che vale per gli esseri umani: sei quello che mangi. Se la dieta è composta da junk food cognitivo, il risultato sarà un sistema degradato, meno capace di ragionare, meno etico, più manipolabile.

Condividi.

Diplomata alla Scuola Internazionale di Comics di Napoli - corso di sceneggiatura -, è impegnata in progetti di scrittura creativa e recensioni. Cresciuta con la consapevolezza che “All work and no play makes Jack a dull boy”. Paladina dello Sturm und Drang. Adepta del Lato Oscuro della Forza.