X

L’Italia si è presa un primato che sulla carta suona bene: siamo il primo Paese dell’Unione Europea a dotarci di una legge organica sull’intelligenza artificiale. La legge numero 132/2025, pubblicata in Gazzetta Ufficiale lo scorso 25 settembre, si pone in linea con l’AI Act europeo e promette di regolamentare l’uso dell’intelligenza artificiale in settori cruciali come sanità, lavoro, pubblica amministrazione, giustizia, professioni intellettuali e trattamento dei dati. Obiettivo dichiarato: garantire un utilizzo corretto, trasparente e responsabile di queste tecnologie che stanno trasformando radicalmente la nostra società. Ma dietro questa corsa ad essere primi si nasconde un problema sostanziale che rischia di vanificare gli sforzi legislativi. Non si tratta di un difetto nelle intenzioni o nei principi della legge, ma di una scelta organizzativa che sta già accendendo un dibattito serrato tra gli esperti del settore; invece di creare un’autorità unica e specializzata per vigilare sull’intelligenza artificiale, il legislatore ha deciso di affidare competenze e responsabilità a una costellazione di autorità già esistenti.

Anna Romano, avvocato e name partner dello Studio Satta Romano Associati, non usa mezzi termini: “La frammentazione delle competenze di vigilanza e attuazione che il legislatore ha deciso di affidare a una pluralità di autorità preesistenti anziché costituire un’autorità indipendente ad hoc interamente dedicata all’AI è sicuramente una scelta discussa e criticabile“. Secondo l’esperta, questa impostazione rischia concretamente di compromettere l’efficacia e la coerenza della futura governance dell’intelligenza artificiale nel nostro Paese. Il cuore del problema si annida nell’articolo 20 della legge, quello che definisce chi fa cosa. Il testo distribuisce le funzioni di vigilanza e attuazione tra un insieme eterogeneo di soggetti: l’AgID (Agenzia per l’Italia Digitale), l’ACN (Agenzia per la Cybersicurezza Nazionale), Banca d’Italia insieme a CONSOB e IVASS per la parte finanziaria, il Garante per la protezione dei dati personali e l’AGCOM nel ruolo di coordinatore dei servizi digitali. Una vera e propria task force istituzionale che sulla carta potrebbe sembrare un approccio completo, ma che nella pratica solleva interrogativi pesanti.

Immagine dell'intelligenza artificiale
Immagine dell’intelligenza artificiale, fonte: Money.it

Come può funzionare davvero un sistema così frammentato quando si trova ad affrontare tecnologie complesse e per loro natura intersettoriali? L’intelligenza artificiale non conosce compartimenti stagni: un algoritmo può elaborare dati personali, influenzare decisioni finanziarie, impattare sulla sicurezza nazionale e coinvolgere servizi digitali contemporaneamente. Chi interviene in questi casi? E se le competenze si sovrappongono o, peggio ancora, nessuno si sente direttamente responsabile? Romano evidenzia che questa scelta probabilmente risponde a criteri di efficienza amministrativa e al desiderio di sfruttare risorse ed expertise già presenti nel sistema, evitando di creare l’ennesimo carrozzone burocratico. Una logica comprensibile in tempi di spending review, ma che secondo l’esperta “rischia di creare sovrapposizioni, lacune operative e scarsa responsabilizzazione”. La coesistenza di più autorità con poteri parziali “genera problemi interpretativi e applicativi, spesso legati all’esigenza di dirimere eventuali conflitti di competenza”.

Pensate a cosa succederebbe se un sistema di intelligenza artificiale utilizzato in ambito sanitario presentasse problematiche relative alla protezione dei dati, alla sicurezza informatica e all’accuratezza degli algoritmi medici. Chi dovrebbe intervenire per primo? Il Garante Privacy, l’ACN o l’autorità sanitaria competente? E come si coordinano tra loro per un’azione efficace e tempestiva? Questi sono i nodi che la legge attuale lascia irrisolti. Un’autorità autonoma e dedicata esclusivamente all’intelligenza artificiale, dotata di competenze tecniche verticali e trasversali, avrebbe potuto garantire una maggiore capacità di intervento su un terreno così innovativo e in rapidissima evoluzione. Altri Paesi europei stanno valutando proprio questa strada, consapevoli che l’AI richiede un approccio specialistico e non può essere gestita efficacemente con gli strumenti del passato.

Robot controllati dall'intelligenza artificiale lavorano per Amazon
Robot controllati dall’intelligenza artificiale lavorano per Amazon

La legge italiana prevede comunque margini di miglioramento. Il Governo ha un anno di tempo per adottare decreti legislativi che dovranno disciplinare nel dettaglio l’utilizzo di dati, algoritmi e metodi matematici per l’addestramento dei sistemi di intelligenza artificiale. In questi decreti andranno definite tutele concrete (anche di natura risarcitoria), sanzioni proporzionate e l’attribuzione della competenza per eventuali controversie alle sezioni specializzate in materia d’impresa. Sul fronte strategico, la Presidenza del Consiglio avrà il compito di definire una strategia nazionale per l’intelligenza artificiale, con l’obiettivo di favorire la collaborazione interistituzionale e mantenersi in coerenza con i principi del diritto internazionale umanitario. A supporto verrà istituito un Comitato di coordinamento con la missione di indirizzare e promuovere le attività di enti, fondazioni e organismi pubblici e privati che operano nel campo dell’AI.

Si tratta di strumenti potenzialmente utili, ma che dovranno confrontarsi con il problema strutturale della frammentazione delle competenze. Un comitato di coordinamento può facilitare il dialogo, ma non sostituisce la presenza di un’autorità con potere decisionale diretto e responsabilità chiare. La legge 132/2025 rappresenta comunque un primo tentativo organico di inquadrare l’intelligenza artificiale all’interno del nostro ordinamento giuridico. È un passo avanti rispetto al vuoto normativo precedente e dimostra una volontà politica di non lasciare questo settore in una zona grigia. Tuttavia, come sottolinea Romano, l’impianto rimane incompleto e la mancata creazione di un’autorità unica lascia aperti interrogativi rilevanti sulla tenuta del sistema di vigilanza, sulla capacità di rispondere rapidamente agli sviluppi tecnologici e sull’effettivo bilanciamento tra promozione dell’innovazione e tutela dei diritti fondamentali.

Il futuro dell'intelligenza artificiale
Il futuro dell’intelligenza artificiale

La vera prova di efficacia arriverà nei prossimi mesi, quando i decreti attuativi dovranno tradurre i principi generali in regole operative concrete. Quei decreti potranno correggere o consolidare gli orientamenti attuali, magari introducendo meccanismi di coordinamento più stringenti o ridefinendo in modo più netto le competenze. Ma il nodo della governance, oggi, appare tutt’altro che risolto. In un campo come quello dell’intelligenza artificiale, dove l’innovazione corre a una velocità che rende obsolete le regole nel giro di pochi anni, la capacità di intervenire rapidamente e in modo coordinato non è un dettaglio tecnico ma una necessità strategica. L’Italia ha scelto di essere prima, ora deve dimostrare di saper essere anche efficace. Altrimenti il rischio è che il primato si trasformi in un’occasione mancata, con una legge che esiste sulla carta ma fatica a produrre effetti concreti nella realtà.

Condividi.

Diplomata alla Scuola Internazionale di Comics di Napoli - corso di sceneggiatura -, è impegnata in progetti di scrittura creativa e recensioni. Cresciuta con la consapevolezza che “All work and no play makes Jack a dull boy”. Paladina dello Sturm und Drang. Adepta del Lato Oscuro della Forza.