X

Per alcuni giorni, un caso apparentemente assurdo ha coinvolto il mondo della tecnologia e dei media: NVIDIA si è vista bloccare su YouTube un video ufficiale pubblicato dalla stessa azienda. Il filmato, dedicato alla presentazione del DLSS 5 — una tecnologia basata sull’intelligenza artificiale per migliorare la qualità grafica dei videogiochi — aveva già superato i due milioni di visualizzazioni ed era stato diffuso da creator e testate di tutto il mondo. Poi, improvvisamente, è scomparso o è stato reso non visibile in diversi Paesi per motivi di copyright. Ma dietro questo blocco non c’era una vera violazione: si trattava di un errore del sistema automatico.

Il problema nasce da un meccanismo interno di YouTube chiamato Content ID, progettato per proteggere i diritti d’autore. Questo sistema analizza ogni video caricato sulla piattaforma e ne crea una sorta di “impronta digitale” basata su immagini e suoni. Quando un nuovo contenuto viene pubblicato, viene confrontato automaticamente con milioni di altri file già presenti nel database. Se trova anche una somiglianza minima, può scattare una segnalazione per violazione del copyright, con conseguente blocco del video.

Nel caso specifico, tutto è partito da un servizio trasmesso dalla rete italiana La7, che aveva utilizzato alcune immagini tratte proprio dalla presentazione del DLSS 5 all’interno di un telegiornale. Quel servizio è stato poi caricato su YouTube, e il sistema Content ID ha registrato quelle immagini come se appartenessero all’emittente televisiva. Quando successivamente NVIDIA — e molti creator — hanno caricato o condiviso lo stesso materiale originale, il sistema ha interpretato la situazione al contrario: ha considerato La7 come detentore dei diritti e ha segnalato gli altri contenuti come violazioni.


Il risultato è stato un blocco a catena: non solo il video ufficiale di NVIDIA è stato oscurato, ma anche quelli di chi lo aveva rilanciato o commentato. In alcuni casi, gli utenti vedevano un messaggio che indicava la presenza di contenuti appartenenti a La7 e il conseguente blocco per motivi legali. Tuttavia, secondo le ricostruzioni disponibili, non si è trattato di una richiesta intenzionale da parte dell’emittente, ma di un errore automatico del sistema.

Questo episodio mette in evidenza un limite importante delle tecnologie di controllo automatico. Il Content ID è stato creato per contrastare la diffusione illegale di contenuti protetti, ma può generare errori significativi, soprattutto quando non c’è un controllo umano immediato. Il sistema, infatti, agisce in modo automatico e blocca i video prima ancora che venga verificata la reale validità della segnalazione.

Dopo alcuni giorni, il video di NVIDIA è stato ripristinato online, ma il caso ha sollevato molte domande. È giusto affidarsi completamente a sistemi automatici per gestire questioni così complesse? E cosa succede quando un errore colpisce contenuti legittimi, penalizzando aziende e creator?


Quello che emerge è un aspetto fondamentale della cittadinanza digitale: le piattaforme online non sono perfette e i loro sistemi possono sbagliare. Per questo è importante capire come funzionano, per interpretare correttamente situazioni come questa e sviluppare uno spirito critico nei confronti dei contenuti digitali.

Condividi.