X

Quando il governatore della California Gavin Newsom ha firmato la legge SB 53 questa settimana, ha fatto qualcosa che Silicon Valley riteneva impossibile, ha approvato una regolamentazione sull’intelligenza artificiale che non soffoca l’innovazione. Una mossa, secondo quanto si nota in TechCrunch, che smonta anni di retorica allarmistica da parte delle big tech, secondo cui qualsiasi forma di controllo governativo rappresenterebbe la fine della corsa all’AI e la vittoria della Cina nella competizione tecnologica globale.

Adam Billen, vicepresidente delle politiche pubbliche di Encode AI, un gruppo di advocacy guidato da giovani, la vede così: “La realtà è che i responsabili politici sanno che dobbiamo fare qualcosa, e sanno per esperienza su un milione di altre questioni che esiste un modo per approvare leggi che proteggano genuinamente l’innovazione, mentre si garantisce che questi prodotti siano sicuri“. Una dichiarazione che suona quasi banale, ma che rappresenta un cambio di paradigma nel dibattito sulla regolamentazione tecnologica.

Ora i grandi laboratori di AI devono essere trasparenti riguardo ai loro protocolli di sicurezza. Non si tratta di bloccare lo sviluppo o di imporre limiti arbitrari alla ricerca. La legge, prima nel suo genere a livello nazionale, richiede alle aziende di rendere pubblico come prevengono che i loro modelli vengano utilizzati per scopi catastrofici, come cyberattacchi alle infrastrutture critiche o la costruzione di armi biologiche. E soprattutto, le obbliga a rispettare quei protocolli, con l’Office of Emergency Services incaricato di far rispettare le regole.

AI Vs Umanità

Quello che rende questa legge particolarmente interessante è che, come sottolinea Billen, “le aziende stanno già facendo le cose che chiediamo in questa legge. Effettuano test di sicurezza sui loro modelli. Rilasciano schede dei modelli“. Il problema è che alcune stanno iniziando a tagliare gli angoli in determinate aree. Ed è qui che emerge uno degli aspetti più inquietanti dell’industria dell’AI: alcune aziende hanno politiche esplicite che permettono di rilassare gli standard di sicurezza sotto pressione competitiva. OpenAI, per esempio, ha dichiarato pubblicamente che potrebbe aggiustare i suoi requisiti di sicurezza se un laboratorio rivale rilasciasse un sistema ad alto rischio senza salvaguardie simili. È una sorta di clausola di deroga alla sicurezza basata sulla logica del lo fanno anche gli altri, una giustificazione che suonerebbe assurda in qualsiasi altro settore regolamentato. Immaginate una compagnia aerea che annuncia di poter ridurre i controlli di sicurezza perché la concorrenza lo sta facendo.

La vera domanda non è se possiamo permetterci di regolamentare l’AI, ma se possiamo permetterci di non farlo. Quando le stesse aziende che sviluppano questi sistemi ammettono pubblicamente di essere disposte a rilassare gli standard di sicurezza per ragioni competitive, è chiaro che lasciare tutto all’autoregolamentazione non è un’opzione. SB 53 non è perfetta, e Billen stesso ammette che non sarebbe adeguata come unico strumento per affrontare tutti i potenziali rischi dell’AI. Ma è un inizio, un modello che dimostra come protezione e progresso possano coesistere.

Condividi.

Nato il 19 Dicembre 1992, ha capito subito che il cinema era la sua strada. Dopo essersi laureato in filosofia all'università di Palermo e aver seguito esami, laboratori e corsi sulla critica, la storia del cinema e la scrittura creativa, si è focalizzato sulle sue più grandi passioni: scrivere e la settima arte. Ha scritto per L'occhio del cineasta ed è stato redattore per Cinesblog fino alla sua chiusura. Ora si occupa di news e articoli per ScreenWorld.it, per CinemaSerieTv.it e CultWeb.it