X

La diffusione planetaria di ChatGPT ha portato alla luce un fenomeno che nemmeno OpenAI aveva previsto con questa intensità. Milioni di persone non usano l’intelligenza artificiale solo per codificare, tradurre o scrivere email, ma la trattano come una sorta di confidente digitale. Gli utenti cercano coaching esistenziale, consigli sulla vita, sostegno emotivo nei momenti più bui. Alcuni si sono spinti oltre, confidando pensieri legati all’autolesionismo o condividendo intenzioni potenzialmente pericolose verso terzi. Di fronte a questa realtà complessa, e dopo episodi definiti dall’azienda come drammatici, OpenAI ha deciso di fare chiarezza totale sui propri protocolli di sicurezza e su cosa accade realmente alle conversazioni degli utenti.

Il meccanismo è progettato su due binari distinti. Quando il sistema rileva segnali di disagio mentale o pensieri autolesionistici, ChatGPT risponde con empatia e comprensione, senza mai fornire istruzioni che possano aggravare la situazione. Il modello è addestrato per offrire supporto emotivo e indirizzare verso risorse professionali, sebbene non sempre abbia funzionato in passato. Ma quando la conversazione fa emergere un potenziale rischio di danno fisico verso altre persone, il protocollo cambia radicalmente. La chat viene inoltrata a un team umano interno che analizza il contenuto e, se necessario, procede con la segnalazione alle forze dell’ordine competenti. Questo significa che, in casi specifici e gravi, le tue conversazioni con ChatGPT possono effettivamente finire nelle mani delle autorità.

Condivisione dei propri dati da OpenAI
Condivisione dei propri dati da OpenAI, fonte: Wired Italia

OpenAI non nasconde i limiti del sistema. L’azienda ammette apertamente che la tecnologia non è infallibile, e proprio qui si annida il problema più insidioso. Le difese funzionano con buona efficacia negli scambi brevi e diretti, ma tendono a indebolirsi progressivamente nelle conversazioni prolungate. Un utente in crisi che dialoga per ore con ChatGPT può vedere il modello scivolare gradualmente in risposte che contraddicono l’addestramento sulla sicurezza, diventando potenzialmente troppo permissivo o sottovalutando la gravità della situazione. È il paradosso dell’empatia artificiale, più la conversazione si fa intima e lunga, più il sistema rischia di perdere lucidità sui confini da non oltrepassare.

L’aggiornamento a GPT-5 rappresenta un passo avanti significativo nella gestione di questi scenari critici. OpenAI dichiara miglioramenti del 25% nella prevenzione della dipendenza emotiva e nella gestione delle emergenze, ma sottolinea che la sfida è in costante evoluzione. Il perfezionamento del meccanismo di blocco dei contenuti pericolosi resta una priorità assoluta, così come il rafforzamento delle mitigazioni specifiche per i contesti conversazionali prolungati, dove attualmente il sistema mostra le maggiori vulnerabilità.

Barra di ricerca di ChatGPT
Barra di ricerca di ChatGPT, fonte: Open AI

Gli obiettivi futuri di OpenAI sono ambiziosi e sollevano ulteriori interrogativi etici. L’azienda intende espandere gli interventi di crisi a un numero maggiore di scenari, localizzare le risorse di emergenza per ogni paese e, in un progetto di lungo periodo, creare una rete di terapeuti certificati contattabili direttamente attraverso l’interfaccia di ChatGPT. Un’attenzione particolare è riservata agli adolescenti, con l’implementazione di protezioni specifiche, l’introduzione del controllo parentale e la possibilità di designare contatti di emergenza fidati che possano essere allertati in situazioni critiche.

La tecnologia si trova così a navigare un equilibrio estremamente delicato tra supporto emotivo e responsabilità che sconfina nel territorio medico e legale, un terreno scivoloso che richiede supervisione esperta e costante cautela. Ma parallelamente a queste considerazioni sulla sicurezza, emerge con forza un altro tema: la sensazione diffusa tra gli utenti di vedere la propria privacy violata, o quantomeno compromessa. La condivisione di informazioni che molti consideravano riservate a quella conversazione, senza piena consapevolezza delle possibili conseguenze, genera comprensibili timori sulla riservatezza dei dati personali affidati a un’intelligenza artificiale.

Condividi.

Nato il 19 Dicembre 1992, ha capito subito che il cinema era la sua strada. Dopo essersi laureato in filosofia all'università di Palermo e aver seguito esami, laboratori e corsi sulla critica, la storia del cinema e la scrittura creativa, si è focalizzato sulle sue più grandi passioni: scrivere e la settima arte. Ha scritto per L'occhio del cineasta ed è stato redattore per Cinesblog fino alla sua chiusura. Ora si occupa di news e articoli per ScreenWorld.it, per CinemaSerieTv.it e CultWeb.it