OpenAI ha confermato un incidente di sicurezza che ha esposto dati di alcuni sviluppatori che utilizzano le API di ChatGPT. La violazione, però, non è avvenuta nei sistemi della società californiana, bensì in quelli di Mixpanel, il servizio di analisi dati di terze parti utilizzato per monitorare il traffico della piattaforma. Una distinzione importante, ma che non cancella il problema: informazioni personali di utenti sono finite nelle mani di un attaccante, e questo apre scenari concreti di rischio. L’azienda ha tenuto a precisare che i sistemi di ChatGPT non sono stati compromessi e che gli utenti finali della piattaforma di chat non sono coinvolti. Nessun contenuto sensibile come password, chiavi API, dettagli di pagamento o conversazioni è stato violato.
Il perimetro della violazione si limita a dati che OpenAI definisce limitati: nomi, indirizzi email, posizione geografica approssimativa, sistema operativo, browser utilizzato e identificativi utente o organizzativi. La cronologia dell’attacco rivela alcuni elementi che sollevano interrogativi sulla gestione della sicurezza nella catena dei fornitori. Mixpanel ha scoperto l’accesso non autorizzato il 9 novembre 2025, quando un attaccante era già riuscito a infiltrarsi nei propri sistemi ed esportare un dataset contenente informazioni identificative e dati analitici. Solo il 25 novembre, dopo oltre due settimane, Mixpanel ha consegnato il dataset a OpenAI per le analisi. Un ritardo che ha permesso ai dati di circolare indisturbati.

L’origine dell’attacco viene ricondotta a una tecnica di smishing, una variante del phishing che sfrutta SMS ingannevoli per ottenere credenziali o installare malware sui dispositivi delle vittime. Mixpanel ha comunicato l’incidente ai clienti coinvolti e ha avviato una collaborazione con le autorità competenti, senza però rendere noto il numero esatto di utenti interessati dalla violazione. La reazione di OpenAI è stata netta: rimozione immediata di Mixpanel dai servizi di produzione e annuncio di una revisione completa di tutti i fornitori di terze parti. Una decisione che tradisce il livello di preoccupazione interno, nonostante le rassicurazioni pubbliche. L’azienda ha anche aperto un canale dedicato per richieste di supporto degli utenti coinvolti.
Ma perché dati apparentemente minori come nome ed email dovrebbero preoccupare? La risposta sta nel modo in cui funzionano le campagne di phishing moderne. Queste informazioni, anche se di per sé non critiche, possono essere utilizzate per costruire messaggi fraudolenti estremamente credibili. Un attaccante che conosce il tuo nome, la tua email e sa che utilizzi le API di ChatGPT può inviarti una comunicazione che sembra provenire direttamente da OpenAI, magari spacciandosi per un avviso di sicurezza o una richiesta di verifica dell’account. Gli esperti di cybersecurity sottolineano che il valore reale di questi dati cresce quando vengono combinati con altre informazioni disponibili pubblicamente o acquistate nel dark web. Un profilo LinkedIn, un post su Twitter, un commento su un forum tecnico: ogni frammento contribuisce a costruire un’identità digitale completa, che può essere sfruttata per attacchi mirati di social engineering. Non si tratta più di email generiche inviate a milioni di indirizzi, ma di messaggi personalizzati che sfruttano il contesto professionale della vittima.

OpenAI ha raccomandato agli sviluppatori coinvolti di prestare massima attenzione a messaggi o email sospetti, soprattutto se contengono link inattesi o richieste di credenziali. L’azienda ha ribadito di non chiedere mai password, codici di verifica o informazioni sensibili tramite email o chat. Un consiglio standard, ma che assume peso specifico in un contesto in cui l’attaccante ha già in mano elementi per rendersi credibile. L’incidente si inserisce in un quadro più ampio di crescente attenzione verso OpenAI, oggi tra le aziende più influenti nel settore dell’intelligenza artificiale. La società è stata già bersaglio di intrusioni in passato, come rivelato da un’inchiesta del New York Times nel 2023, e preoccupazioni sulla sicurezza interna sono emerse anche nel 2024 da parte di un ex ricercatore licenziato. La popolarità di ChatGPT, che conta centinaia di milioni di utenti in tutto il mondo, la rende un bersaglio privilegiato per attaccanti di ogni tipo.
Dal punto di vista normativo, l’episodio solleva anche questioni legate al GDPR e al principio di minimizzazione dei dati. Secondo alcuni esperti di sicurezza, il tracciamento di informazioni come indirizzi email e posizione geografica da parte di Mixpanel potrebbe non essere strettamente necessario al miglioramento del prodotto, configurando una potenziale violazione delle normative europee sulla protezione dei dati. Le aziende, indipendentemente dalle dimensioni, dovrebbero sempre puntare ad anonimizzare al massimo i dati inviati a fornitori terzi, riducendo i punti di possibile esposizione. La vicenda Mixpanel dimostra quanto sia critica la gestione della sicurezza nell’ecosistema dell’intelligenza artificiale. L’interconnessione tra piattaforme e servizi genera efficienza e funzionalità avanzate, ma crea anche nuove vulnerabilità. Ogni fornitore esterno rappresenta una potenziale porta di accesso, e la catena è forte quanto il suo anello più debole. OpenAI può vantare sistemi di sicurezza interni robusti, ma se un partner viene compromesso, i dati degli utenti restano esposti.

Per gli utenti coinvolti, oltre alla vigilanza contro tentativi di phishing, è consigliabile attivare l’autenticazione a due fattori su tutti gli account collegati ai servizi OpenAI e verificare regolarmente gli accessi sospetti. Cambiare le password, soprattutto se riutilizzate su più piattaforme, è una misura prudente. E diffidare sempre di comunicazioni non sollecitate che richiedono azioni urgenti o clic su link esterni. L’episodio conferma che nel mondo digitale contemporaneo, anche i dati apparentemente innocui possono diventare armi nelle mani sbagliate. La sicurezza informatica non è più solo una questione tecnica affidata ai reparti IT, ma una responsabilità condivisa che coinvolge scelte aziendali strategiche, selezione rigorosa dei fornitori e consapevolezza costante degli utenti. E quando si parla di intelligenza artificiale, settore che raccoglie e processa volumi enormi di informazioni personali, il margine di errore si riduce ulteriormente.
