Quante volte ti è capitato di concludere una conversazione con ChatGPT scrivendo un cortese grazie o di iniziare una richiesta con un educato per favore? Probabilmente più di quanto immagini. È un riflesso quasi automatico, un’abitudine radicata nella nostra cultura che ci porta a umanizzare anche ciò che umano non è. Eppure, dietro questo gesto apparentemente innocuo si nasconde un impatto ambientale ed economico che pochi conoscono e che sta diventando sempre più rilevante man mano che l’intelligenza artificiale si diffonde nelle nostre vite quotidiane. Quando digitiamo o pronunciamo una frase rivolta a un sistema di intelligenza artificiale generativa come ChatGPT, Gemini o altri modelli linguistici avanzati, mettiamo in moto un meccanismo complesso che va ben oltre lo schermo del nostro smartphone o computer. Ogni singola parola inviata viene elaborata all’interno di enormi data center, strutture che ospitano migliaia di server in funzione ventiquattr’ore su ventiquattro. Qui, quella che per noi è una semplice conversazione si trasforma in una cascata di operazioni matematiche: il modello deve interpretare il testo, pesare ogni termine, analizzare il contesto e collegare le informazioni per generare una risposta coerente.
Il punto cruciale è che in questo processo non esistono parole neutre o prive di costo. Anche un banale grazie o per favore contribuisce ad allungare il testo in ingresso e, di conseguenza, aumenta il carico computazionale necessario per produrre una risposta. Può sembrare trascurabile se pensiamo a una singola interazione, ma quando queste formule di cortesia vengono moltiplicate per i miliardi di richieste quotidiane che vengono inviate ai chatbot di tutto il mondo, i numeri diventano impressionanti. A confermare questa dinamica è stato direttamente Sam Altman, amministratore delegato di OpenAI, la società che ha creato ChatGPT. Rispondendo a un utente su X che si interrogava sul costo delle formule di cortesia rivolte all’intelligenza artificiale, Altman ha dichiarato con un misto di ironia e consapevolezza che questi comportamenti sono costati all’azienda “decine di milioni di dollari” in termini di energia consumata. Ha poi aggiunto, scherzosamente: “ben spesi, non si sa mai“, un riferimento velato alla preoccupazione diffusa su come potrebbero reagire le intelligenze artificiali se un giorno dovessero sviluppare una qualche forma di autoconsapevolezza.

Ma quanto consuma davvero l’intelligenza artificiale? Ottenere dati precisi non è semplice, anche perché le aziende del settore tendono a essere piuttosto riservate su questi aspetti. Tuttavia, le stime dell’Agenzia Internazionale dell’Energia offrono un quadro abbastanza chiaro: la generazione di una singola risposta testuale richiede in media circa 0,3 wattora. Il consumo cresce in modo significativo quando si passa alla generazione di contenuti più complessi: per creare un’immagine servono circa 1,7 wattora, mentre per produrre un video di appena cinque secondi in bassa qualità il consumo schizza a 115 wattora. Per rendere questi numeri più comprensibili, possiamo fare un confronto con oggetti di uso quotidiano. Una ricarica completa di uno smartphone moderno richiede circa 15 wattora, mentre quella di un computer portatile può arrivare a 60 wattora. Questo significa che generare poche decine di risposte con un’intelligenza artificiale può consumare tanta energia quanto ricaricare completamente un telefono. E chi ha mai provato a far girare un modello di AI in locale sul proprio computer sa bene quanto il sistema si surriscaldi rapidamente, un segnale tangibile dell’enorme quantità di calcoli che vengono eseguiti in pochi istanti.
Ma l’energia elettrica non è l’unico aspetto problematico. C’è anche la questione idrica, spesso trascurata ma altrettanto rilevante. I data center che ospitano i server dell’intelligenza artificiale devono essere raffreddati costantemente per evitare surriscaldamenti che potrebbero danneggiare le macchine o comprometterne il funzionamento. In molti casi, questo raffreddamento avviene attraverso sistemi che utilizzano grandi quantità d’acqua. Secondo uno studio condotto dall’Università della California, la generazione di un testo di circa cento parole attraverso un modello avanzato di intelligenza artificiale può comportare il consumo di oltre mezzo litro d’acqua. Un dato che assume un peso enorme se rapportato all’immensa quantità di contenuti prodotti ogni giorno in tutto il mondo.

Di fronte a queste cifre, verrebbe spontaneo pensare che la soluzione sia semplice: eliminare ogni forma di cortesia superflua e ridurre le richieste all’osso, comunicando con l’intelligenza artificiale in modo telegrafico e diretto. Ma la realtà, come spesso accade, è più complessa e sfumata di quanto possa sembrare a prima vista. Studi recenti hanno infatti dimostrato che un approccio troppo brusco o impreciso può avere l’effetto opposto rispetto a quello desiderato. Quando ci esprimiamo in modo scortese o troppo sintetico, aumenta la probabilità che l’intelligenza artificiale produca risposte vaghe, incomplete o addirittura che interrompa la conversazione per ragioni di sicurezza, interpretando il tono come potenzialmente aggressivo o problematico. Questo costringe l’utente a ripetere la richiesta, a riformularla in modo diverso o a chiedere chiarimenti, con il risultato che il consumo energetico totale finisce per essere persino superiore rispetto a una comunicazione più articolata ma efficace al primo colpo.
Quando invece una domanda viene espressa in modo chiaro, strutturato e, sì, anche cortese, il modello riesce a interpretare meglio l’intento dell’utente e a fornire una risposta più centrata e completa al primo tentativo. Questo riduce il numero di interazioni necessarie e, di conseguenza, anche il consumo complessivo di risorse. In altre parole, non si tratta tanto di essere gentili o scortesi con una macchina, quanto piuttosto di comunicare in modo efficiente. La vera chiave, quindi, non sta nell’eliminare completamente le formule di cortesia, ma nell’evitare parole superflue che non aggiungono informazioni utili alla richiesta. Imparare a scrivere un prompt efficace diventerà una competenza sempre più importante negli anni a venire, una sorta di nuova alfabetizzazione digitale che ci permetterà di interagire con l’intelligenza artificiale in modo sostenibile senza sacrificare la qualità delle risposte.



