L’intelligenza artificiale generativa continua a sollevare questioni spinose nel mondo dello spettacolo, non soltanto sulla creazione dell’attrice Tilly Norwood e le critiche che ha scatenato, ma anche su un problema che attanaglia i social da anni, quello del furto dell’identità digitale. Stavolta il protagonista involontario è Bryan Cranston, la stella di Breaking Bad. Il celebre attore si è ritrovato al centro di una controversia dopo che la sua immagine è apparsa in video generati dall’intelligenza artificiale sul social Sora 2, l’applicazione di creazione video di OpenAI, senza che lui avesse mai dato il proprio consenso. Tra i contenuti spuntati sulla piattaforma, uno particolarmente surreale lo mostrava mentre si faceva un selfie con Michael Jackson, in un mix di realtà e finzione che ha fatto suonare tutti i campanelli d’allarme a Hollywood.
La vicenda ha innescato una risposta immediata da parte di SAG-AFTRA, il sindacato degli attori americani, che da tempo combatte per proteggere i propri iscritti dall’uso non autorizzato delle loro sembianze attraverso la tecnologia dei deepfake. Il problema non è da poco: in un’epoca in cui l’intelligenza artificiale può ricreare volti, voci e movimenti con un realismo impressionante, dove finisce il diritto di un’azienda tech a sperimentare e dove inizia quello di un attore a controllare la propria immagine?

OpenAI ha lanciato Sora 2 il mese scorso con una politica di opt-out, ovvero un sistema in cui i detentori di diritti d’autore dovevano attivarsi per escludere i propri contenuti dalla piattaforma. Un approccio che ha sollevato un coro di proteste, non solo da parte del sindacato, ma anche dalle principali agenzie di talenti come United Talent Agency, Creative Artists Agency e l’Association of Talent Agents. Il messaggio era chiaro: non potete prima usare le nostre immagini e poi chiederci di fare richiesta per fermarvi. La pressione ha funzionato. In una dichiarazione congiunta pubblicata da SAG-AFTRA, OpenAI ha ammesso di aver rafforzato le protezioni attorno alla propria politica di consenso per somiglianze e voci, esprimendo rammarico per queste generazioni non intenzionali che hanno coinvolto Cranston. L’azienda ha ribadito il proprio impegno: “Tutti gli artisti, i performer e gli individui avranno il diritto di determinare come e se possono essere simulati“. Una promessa che suona bene sulla carta, ma che dovrà tradursi in misure concrete e verificabili.
Bryan Cranston, da parte sua, ha accolto positivamente la risposta di OpenAI. “Sono grato a OpenAI per la sua politica e per aver migliorato le sue protezioni“, ha dichiarato l’attore nella nota congiunta. Ma la questione va ben oltre il caso specifico. Sean Astin, presidente di SAG-AFTRA, ha sottolineato nella stessa dichiarazione che i performer hanno bisogno di una legge federale che li protegga dalla “massiccia appropriazione indebita attraverso la tecnologia di replicazione“.

Il riferimento è al NO FAKES Act, acronimo di Nurture Originals, Foster Art, and Keep Entertainment Safe Act, una proposta legislativa che mira a stabilire tutele legali chiare per chi rischia di vedere la propria immagine e voce replicate senza permesso. Già supportata da piattaforme come YouTube, la legge rappresenterebbe un punto di svolta nel rapporto tra intelligenza artificiale e diritti delle persone, non solo nel mondo dello spettacolo ma per chiunque possa diventare bersaglio di un deepfake.
La vicenda ha anche evidenziato i limiti iniziali dell’approccio di OpenAI. Dopo il lancio di Sora 2, la piattaforma è stata invasa da contenuti controversi, tra cui video di SpongeBob in divisa nazista, che hanno costretto l’azienda a fare marcia indietro. Sam Altman, CEO di OpenAI, ha promesso di “dare ai detentori di diritti un controllo più granulare sulla generazione di personaggi, simile al modello opt-in per le somiglianze ma con controlli aggiuntivi“. Un cambio di rotta significativo, passando dall’opt-out all’opt-in, ovvero da un sistema in cui devi chiedere di essere escluso a uno in cui devi dare il permesso esplicito per essere incluso. Il caso Cranston è sintomatico di una tensione più ampia che attraversa l’industria dell’intrattenimento. Da un lato, le potenzialità creative dell’intelligenza artificiale generativa sono enormi considerando che registi, produttori e creator indipendenti possono immaginare scenari impossibili, resuscitare attori defunti per camei digitali o creare mondi fantastici con budget ridotti. Dall’altro, esiste il rischio concreto che questa tecnologia venga usata per sfruttare l’immagine di persone reali senza il loro consenso, minando il controllo che ciascuno dovrebbe avere sulla propria identità visiva e vocale. Ci sarà da preoccuparsi o verrà posto un freno a queste situazioni? E se un giorno saranno le persone comuni a vedersi in una foto o un video generato con AI senza averne fornito il consenso? La situazione è spinosa e andrebbe affrontata il prima possibile.



