X

Nel panorama in continua evoluzione dell’intelligenza artificiale, non tutte le scommesse tecnologiche si rivelano vincenti. Google, colosso indiscusso del settore tech, si è trovato costretto a fare un passo indietro clamoroso: chiudere al pubblico Gemma, uno dei suoi strumenti di AI che aveva esteso agli utenti comuni dopo il lancio riservato agli sviluppatori. La decisione arriva dopo mesi di problemi, errori sistematici e un caso di diffamazione che ha coinvolto nientemeno che una senatrice statunitense. Gemma era nato con ambizioni diverse. Lanciato inizialmente come strumento destinato agli sviluppatori, l’AI di Mountain View doveva rappresentare un’estensione dell’ecosistema di intelligenza artificiale di Google, che già comprende il più noto chatbot Gemini. L’idea era quella di offrire una suite sempre più completa di strumenti basati sull’AI, capaci di rispondere alle esigenze più diverse degli utenti. Ma qualcosa è andato storto, e in fretta.

Già nei primi mesi dal lancio pubblico, Gemma ha iniziato a manifestare quello che nel gergo tecnico viene definito “allucinazioni”: l’AI generava informazioni completamente inventate, spacciandole per verità. Il problema non era di poco conto. Mentre un errore occasionale può essere tollerato in fase di rodaggio, Gemma produceva fake news con una frequenza allarmante, minando alla base la fiducia degli utenti. Il motivo di questi fallimenti risiede in una lacuna progettuale fondamentale: Gemma non era stato equipaggiato con un sistema di fact-checking adeguato. In un’epoca in cui la disinformazione rappresenta una delle sfide più grandi del digitale, lanciare uno strumento di intelligenza artificiale senza meccanismi di verifica delle informazioni è come costruire un’auto senza freni. Le conseguenze non si sono fatte attendere.

Immagine dell'intelligenza artificiale
Immagine dell’intelligenza artificiale, fonte: Money.it

Il punto di non ritorno è arrivato quando la senatrice statunitense Marsha Blackburn ha segnalato pubblicamente un caso di diffamazione: Gemma aveva diffuso informazioni false e offensive sul suo conto. Non si trattava più di semplici imprecisioni o errori tecnici, ma di contenuti potenzialmente dannosi per la reputazione di persone reali. La questione è finita sulla scrivania del CEO di Google, Sundar Pichai, che ha preso l’unica decisione possibile in una situazione del genere: chiudere l’accesso pubblico a Gemma. La chiusura non significa però la morte definitiva dello strumento. Google ha deciso di fare retromarcia, riportando Gemma alla sua destinazione originale: uno strumento riservato agli sviluppatori, accessibile tramite API. In questo modo, l’azienda può continuare a sviluppare la tecnologia in un ambiente controllato, lontano dagli occhi del grande pubblico e dai rischi legali che comporta la diffusione di informazioni false su larga scala.

Questo episodio solleva interrogativi più ampi sulla corsa all’intelligenza artificiale che sta coinvolgendo tutte le big tech. Google, come Microsoft, Meta e molte altre aziende, sta investendo miliardi nello sviluppo di strumenti AI sempre più sofisticati. Ma la fretta di lanciare nuovi prodotti sul mercato rischia di compromettere la qualità e l’affidabilità di queste tecnologie. L’esperienza con Gemma potrebbe rappresentare un campanello d’allarme per Mountain View. Secondo indiscrezioni, l’azienda starebbe valutando di estendere controlli più rigidi a tutti gli altri strumenti basati sull’intelligenza artificiale, in particolare quelli ancora in fase di test. L’obiettivo dichiarato è garantire che l’esperienza dell’utente sia ottimale, ma anche evitare nuovi casi di diffamazione o diffusione di fake news che potrebbero danneggiare irreparabilmente la reputazione del brand.

Il futuro dell'intelligenza artificiale
Il futuro dell’intelligenza artificiale

La questione del fact-checking nelle intelligenze artificiali non è banale. A differenza di un motore di ricerca tradizionale, che si limita a indicizzare contenuti esistenti, un’AI generativa produce testi nuovi, combinando informazioni apprese durante l’addestramento. Questo processo, per quanto sofisticato, può portare alla creazione di contenuti che appaiono plausibili ma sono completamente inventati. Senza meccanismi di verifica incrociata con fonti attendibili, il rischio di diffondere disinformazione diventa concreto e pericoloso. Gli utenti che avevano provato Gemma si erano già espressi negativamente sui social e nei forum specializzati, lamentando l’inaffidabilità dello strumento. Molti avevano smesso di utilizzarlo spontaneamente, prima ancora che Google decidesse di chiuderlo. L’ira degli utenti, combinata con il caso di diffamazione della senatrice Blackburn, ha creato una tempesta perfetta che ha costretto l’azienda a intervenire rapidamente.

Gemini, il chatbot principale dell’azienda, continua a funzionare e a essere aggiornato regolarmente. Ma l’episodio di Gemma dimostra che anche i giganti della tecnologia possono inciampare quando si tratta di bilanciare innovazione e responsabilità. In un settore dove la competizione è feroce e i margini di errore sempre più ridotti, Google ha imparato una lezione costosa: non basta avere la tecnologia più avanzata, bisogna anche saperla gestire con prudenza. L’intelligenza artificiale è uno strumento potentissimo, ma come ogni strumento potente richiede cautela, controlli e una profonda comprensione delle sue implicazioni etiche e sociali. Il caso Gemma rimarrà probabilmente negli annali come esempio di come non si lancia un prodotto AI, un monito per tutti coloro che, in questa corsa all’innovazione, rischiano di mettere la velocità davanti alla sicurezza.

Condividi.

Diplomata alla Scuola Internazionale di Comics di Napoli - corso di sceneggiatura -, è impegnata in progetti di scrittura creativa e recensioni. Cresciuta con la consapevolezza che “All work and no play makes Jack a dull boy”. Paladina dello Sturm und Drang. Adepta del Lato Oscuro della Forza.