All’inizio dell’anno, Ted Sarandos, CEO di Netflix, aveva dipinto un futuro roseo per l’intelligenza artificiale generativa: una rivoluzione creativa che avrebbe trasformato il modo di fare arte. La realtà, come spesso accade quando la tecnologia incontra la natura umana, ha preso una piega completamente diversa. L’impatto più evidente dell’AI non è stata l’elevazione artistica, ma la democratizzazione della produzione di massa di contenuti odiosi, rendendo straordinariamente semplice attaccare e denigrare le persone online. Il caso più eclatante di questo fenomeno riguarda Sora 2, il software di OpenAI capace di generare video ultrarealistici partendo da semplici prompt testuali. Quello che doveva essere uno strumento per espandere i confini della creatività è diventato, nelle mani di migliaia di utenti, un’arma per il cyberbullismo di massa. E tra i bersagli preferiti ci sono le persone obese, già da tempo vittime di discriminazione online, ora sommerse da un’ondata di video offensivi creati in pochi secondi.

Gli esempi non mancano, e sono tutti ugualmente sgradevoli. Una clip con 56.000 like su Instagram combina grassofobia e razzismo in un mix tossico, mostrando una donna di colore che sfonda letteralmente il pavimento di un KFC. Un altro video ritrae un uomo che mangia un hamburger gigantesco, gonfiandosi fino a fluttuare nel cielo come un palloncino. Un contenuto con quasi 900.000 like mostra una donna che fa bungee jumping: mentre si avvicina al fondo, la parte inferiore del ponte cede di colpo sotto il suo peso, producendo uno splash esagerato. In un altro video Instagram, che ha superato i 350.000 like, un autista corpulento di Doordash si avvicina a una casa e sprofonda nel portico di legno prima di riuscire a consegnare il cibo. Divertentissimo, no? Se sei un bullo senza cuore, probabilmente sì. Per tutti gli altri, è solo l’ennesima dimostrazione di come la tecnologia possa amplificare il peggio dell’umanità.

Ciò che rende il fenomeno ancora più preoccupante è la confusione che genera. Sebbene alcuni utenti nei commenti comprendano che questi video sono frutto dell’intelligenza artificiale, molti altri non se ne rendono conto. Persone ignare intavolano discussioni serie su situazioni completamente inventate, commentando come se fossero reali. Questa incapacità di distinguere il vero dal falso amplifica ulteriormente l’effetto dannoso dei contenuti, normalizzando stereotipi e pregiudizi. Un video con 233.000 visualizzazioni su YouTube è addirittura nella top six dei contenuti Sora AI che mostrano persone obese. Di questi sei video, solo quattro ritraggono esseri umani: gli altri due mostrano uno scoiattolo e un gattino obesi, disumanizzando ulteriormente le persone in sovrappeso e accomunandole agli animali. Una strategia comunicativa tanto sottile quanto disgustosa.

Basta una rapida occhiata sui social media per rendersi conto della varietà infinita di contenuti denigratori generati con Sora. Ci sono le olimpiadi degli obesi, i chiropratici obesi, i ladri di cibo obesi, i salti sul trampolino degli obesi, persone obese che cavalcano delfini. Ogni possibile stereotipo o situazione umiliante è stata generata e condivisa da migliaia di persone che evidentemente non hanno niente di meglio da fare. Una valanga di contenuti stigmatizzanti che invade i feed di milioni di utenti. I contenuti offensivi contro le persone obese non sono una novità sui social media. La grassofobia esiste da quando esistono le piattaforme digitali. Ma la facilità con cui questo materiale può ora essere creato, e soprattutto la possibilità di inventare situazioni fisicamente impossibili ma visivamente convincenti, ha generato un’altra ondata di contenuti denigratori. Un tempo servivano tempo, impegno e almeno un minimo di competenza tecnica per creare un video offensivo. Adesso basta digitare una frase su Sora e il gioco è fatto: in pochi secondi hai il tuo contenuto pronto per essere condiviso e viralizzato.

Immagine promozionale di ChatGPT Pulse
Immagine promozionale di ChatGPT Pulse, fonte: Open AI

La questione solleva interrogativi profondi sulla responsabilità delle aziende tecnologiche. OpenAI ha implementato filtri di moderazione, ma evidentemente non sono sufficienti a fermare l’ondata di contenuti problematici. Il sistema sembra essere più efficace nel bloccare la nudità o la violenza esplicita, ma molto meno capace di riconoscere e prevenire forme più sottili di discriminazione e bullismo. Come si insegna a un’intelligenza artificiale a riconoscere il confine tra satira e crudeltà, tra umorismo e offesa? Questo è davvero il futuro che immaginava Ted Sarandos quando parlava di rivoluzione artistica? Probabilmente no. Ma è quello che abbiamo ottenuto: uno strumento incredibilmente potente usato principalmente per bullizzare le persone, creare contenuti odiosi e collezionare like sui social. La promessa era l’arte democratizzata, la realtà è il bullismo industrializzato.

Condividi.

Diplomata alla Scuola Internazionale di Comics di Napoli - corso di sceneggiatura -, è impegnata in progetti di scrittura creativa e recensioni. Cresciuta con la consapevolezza che “All work and no play makes Jack a dull boy”. Paladina dello Sturm und Drang. Adepta del Lato Oscuro della Forza.