C’è un paradosso che attraversa la Silicon Valley come un brivido: le stesse aziende che costruiscono l’intelligenza artificiale più potente al mondo sono anche le prime a temerne le conseguenze. OpenAI, la società madre di ChatGPT, ha appena annunciato un investimento che racconta questa contraddizione meglio di mille dichiarazioni istituzionali: 15 milioni di dollari in una startup il cui unico obiettivo è impedire che l’AI venga utilizzata per creare armi biologiche. La società si chiama Red Queen Bio, un nome che non è scelto a caso. Richiama Alice nel Paese delle Meraviglie, ma anche il concetto evoluzionistico della “corsa della Regina Rossa”: devi correre il più veloce possibile solo per rimanere nello stesso posto. Ed è esattamente questa la missione che si sono dati: sviluppare difese biologiche alla stessa velocità con cui emergono i rischi generati dall’intelligenza artificiale.

Red Queen Bio si presenta come un’azienda di biosicurezza basata su AI e nasce da Helix Nano, una società specializzata in terapie a mRNA che utilizza massicciamente l’intelligenza artificiale per la progettazione di farmaci. Non è la prima volta che Helix Nano e OpenAI collaborano: in passato avevano già lavorato insieme per creare dei test capaci di stabilire il livello di rischio biologico effettivo derivante dall’uso di sistemi di intelligenza artificiale generativa. Nel round di finanziamento iniziale, OpenAI è stata il principale investitore, segnalando quanto la questione sia considerata prioritaria ai piani alti dell’azienda. Ma perché proprio le armi biologiche? La risposta è tanto semplice quanto inquietante: i modelli linguistici avanzati come GPT-4 possiedono una conoscenza enciclopedica che include informazioni su agenti patogeni, sequenze genetiche, tecniche di manipolazione biologica. In mani sbagliate, potrebbero teoricamente accelerare la progettazione di virus o batteri modificati.

Condivisione dei propri dati da OpenAI
Condivisione dei propri dati da OpenAI, fonte: Wired Italia

Non è paranoia. È una preoccupazione che OpenAI ha espresso pubblicamente già nel giugno scorso, quando in un post sul blog aziendale la società aveva parlato apertamente del timore che la propria tecnologia potesse essere utilizzata per creare armi biologiche. Quella dichiarazione non era un avvertimento generico: era il risultato di simulazioni interne, test condotti proprio con Helix Nano per valutare quanto ChatGPT potesse effettivamente facilitare la progettazione di agenti biologici pericolosi. L’investimento in Red Queen Bio non è un caso isolato nella strategia di OpenAI. L’azienda sta costruendo un vero e proprio ecosistema di startup dedicate alla mitigazione dei rischi legati all’intelligenza artificiale. Il mese scorso ha finanziato Valthos, un’altra società di software per la biosicurezza con sede a New York. Jason Kwon, Chief Strategy Officer di OpenAI, ha spiegato che l’obiettivo è aumentare la resilienza complessiva dell’intero ecosistema tecnologico, non solo proteggere i propri prodotti.

Ma come funziona concretamente Red Queen Bio? L’approccio è quello di utilizzare l’AI stessa come strumento di difesa: algoritmi che possano identificare in tempo reale tentativi di utilizzare modelli linguistici per scopi malevoli, sistemi di monitoraggio che rilevino query sospette, database di sequenze genetiche pericolose da cui i modelli devono essere “schermati”. È una corsa agli armamenti, ma combattuta con firewall biologici e filtri algoritmici invece che con missili. La questione solleva domande più ampie sulla responsabilità delle aziende tecnologiche. Da un lato, OpenAI merita riconoscimento per affrontare apertamente un rischio che molti altri preferirebbero ignorare o minimizzare. Dall’altro, c’è qualcosa di perturbante nel fatto che siano proprio i creatori di questi strumenti a doverci dire quanto possano essere pericolosi. È come se un produttore di automobili ti vendesse la macchina e contemporaneamente un casco, ammettendo che i freni potrebbero non funzionare.

Smarthphone con Chat GPT

Il dibattito sulla sicurezza dell’intelligenza artificiale tende a concentrarsi su scenari futuristici: la superintelligenza che sfugge al controllo, i robot che si ribellano all’umanità. Ma il rischio delle armi biologiche è diverso: è concreto, presente, tecnicamente realizzabile con le tecnologie attuali. Non servono decenni di ricerca: serve solo un attore malintenzionato con competenze biologiche di base e accesso a un modello linguistico sufficientemente potente. L’iniziativa di OpenAI pone anche un precedente importante per l’industria. Se anche altre Big Tech seguiranno questa strada, investendo una percentuale dei loro profitti miliardari in sistemi di sicurezza e contenimento dei rischi, potremmo assistere alla nascita di un nuovo settore, la biosicurezza potenziata dall’AI. Un settore che, paradossalmente, esiste solo perché l’AI stessa ha creato nuove vulnerabilità.

Red Queen Bio dovrà dimostrare che il suo approccio funziona. I 15 milioni di dollari sono un inizio, ma la sfida è titanica: anticipare minacce che ancora non esistono, costruire difese contro attacchi che nessuno ha ancora tentato, correre più veloce di avversari che potrebbero avere le stesse tecnologie a disposizione. È la Regina Rossa che corre, e il paesaggio intorno a lei cambia a ogni passo. Quello che resta, alla fine, è una consapevolezza scomoda: l’intelligenza artificiale non è solo uno strumento neutro che amplifica le nostre capacità. È anche un moltiplicatore di rischi, e alcuni di questi rischi riguardano la nostra stessa sopravvivenza biologica. OpenAI lo sa, e sta mettendo soldi veri sul tavolo per affrontarlo. Resta da vedere se sarà abbastanza, e soprattutto se sarà abbastanza veloce.

Condividi.

Diplomata alla Scuola Internazionale di Comics di Napoli - corso di sceneggiatura -, è impegnata in progetti di scrittura creativa e recensioni. Cresciuta con la consapevolezza che “All work and no play makes Jack a dull boy”. Paladina dello Sturm und Drang. Adepta del Lato Oscuro della Forza.