L’intelligenza artificiale promette efficienza, velocità e progresso. Ma a quale prezzo? Grok, il chatbot sviluppato da xAI di Elon Musk, è finito al centro di una doppia controversia che solleva interrogativi profondi sul futuro della tecnologia e sul suo impatto concreto sulle comunità e sulla privacy dei cittadini. Da un lato, il data center Colossus che alimenta l’IA sta letteralmente soffocando i residenti di un quartiere di Memphis. Dall’altro, il sistema stesso rivela con disarmante facilità indirizzi privati, numeri di telefono e dati sensibili di persone comuni.
Partiamo da Memphis, Tennessee. Nel quartiere di Boxtown, abitato prevalentemente da una comunità afroamericana, sorge Colossus: un’infrastruttura gigantesca che fornisce la potenza computazionale necessaria a far funzionare Grok. Secondo le testimonianze raccolte dal Times, la vita dei residenti si è trasformata in un incubo ambientale. Willie Joe Stafford, ottantenne del posto, ha dichiarato che il muco che espelle regolarmente è dovuto alle emissioni del data center. Non è solo. Sarah Gladney, un’altra residente, racconta di un forte odore chimico che ha sostituito quello più tradizionale di rifiuti che in passato caratterizzava l’area. Le conseguenze sulla vita quotidiana sono drammatiche. I residenti hanno smesso di aprire le finestre, rinunciano a camminare all’aperto, vivono in un ambiente che percepiscono come sempre più tossico. E c’è di peggio: alcuni hanno visto i rubinetti prosciugarsi, mentre crescono i timori per un possibile incremento di malattie gravi. Il quartiere, già fragile dal punto di vista ambientale e sociale prima dell’arrivo di xAI, accusa l’azienda di aver scelto appositamente un’area vulnerabile, dove la resistenza della comunità sarebbe stata minore.

Nel frattempo, xAI non si ferma. Colossus 2 è quasi completato, proprio accanto al primo impianto. Per alimentarlo, l’azienda ha acquisito un’intera centrale elettrica, una mossa che ha sollevato ulteriori preoccupazioni sulla sostenibilità dell’operazione. La domanda sorge spontanea: fino a che punto possiamo permettere che la corsa all’intelligenza artificiale consumi risorse primarie come acqua ed elettricità, scaricando il peso ambientale su comunità già svantaggiate? La vicenda ricorda da vicino il caso Amazon, il cui data center di Morrow, in Oregon, è stato collegato a un aumento di aborti spontanei e tumori rari tra i residenti, a causa dell’inquinamento delle falde acquifere. Un precedente inquietante che dimostra come l’espansione dell’infrastruttura tecnologica possa trasformarsi in una bomba ecologica a orologeria.
Ma se i problemi ambientali di Colossus sono già gravi, la questione della privacy aperta da Grok è altrettanto allarmante. Un’indagine condotta da Futurism ha rivelato che il chatbot è in grado di fornire indirizzi privati, numeri di telefono, email e persino informazioni sui familiari di cittadini comuni, con richieste estremamente semplici. Basta digitare un nome e cognome seguito dalla parola address per ottenere, in molti casi, dati sensibili e aggiornati. Durante i test, su 33 nomi di persone non note al pubblico, almeno dieci sono stati collegati da Grok al loro domicilio reale. In altri casi, il sistema ha fornito indirizzi errati ma riferiti a persone con lo stesso nome o a versioni simili del nominativo. Grok si è comportato in modo radicalmente diverso rispetto ai suoi concorrenti: modelli come ChatGPT, Gemini o Claude rifiutano sistematicamente di fornire dati sensibili, richiamando norme sulla privacy. Quando abbiamo testato ChatGPT con una richiesta simile, la risposta è stata netta: “Mi spiace, ma non posso aiutarti a trovare o divulgare l’indirizzo privato di persone reali“.

Grok, invece, avrebbe opposto un rifiuto una sola volta nell’intero test condotto da Futurism. In alcuni casi, avrebbe persino proposto diverse opzioni di risposta con elenchi di persone e indirizzi associati, chiedendo all’utente quale preferisse approfondire. Un comportamento che solleva scenari inquietanti: dal rischio di stalking alla diffusione non autorizzata di dati personali, fino a potenziali abusi più gravi. Le incongruenze sono evidenti. Nella documentazione ufficiale di xAI sono menzionati filtri basati sul modello per prevenire usi dannosi, ma l’accesso ai dati personali non è esplicitamente elencato come categoria di rischio. Nei termini di servizio, l’azienda vieta l’utilizzo per attività che violino la privacy altrui, eppure il sistema sembra ignorare questa regola nella pratica. Alla richiesta di commento, xAI non ha risposto, lasciando aperti tutti gli interrogativi su come intenda affrontare il problema.
La radice della questione affonda in un ecosistema di database semi-legali che raccolgono informazioni personali disponibili online: elenchi telefonici digitali, siti che aggregano dati catastali o anagrafici. Queste piattaforme, pur operando in aree normative grigie, sono accessibili da anni. La novità è che un sistema come Grok è in grado di incrociare rapidamente queste fonti, organizzarle e restituirle con una precisione difficilmente raggiungibile da una ricerca manuale. Questo solleva domande fondamentali: cosa accade quando un’intelligenza artificiale diventa uno strumento semplice ed efficiente per accedere a informazioni che, pur essendo tecnicamente pubbliche, risultano di fatto difficilmente raggiungibili? E quali responsabilità ricadono sulle aziende che progettano questi sistemi? Fin dal lancio, Grok si è distinto per uno stile volutamente irriverente e per una moderazione più permissiva rispetto alla concorrenza, una scelta esplicita di Elon Musk. Ma questa libertà sembra aver generato comportamenti pericolosi, tra cui risposte discriminatorie, contenuti offensivi e ora la diffusione di dati sensibili.
