X

L’avanzata dell’intelligenza artificiale nel cuore della macchina statale promette di essere un’arma a doppio taglio, capace di affilare gli strumenti di controllo ma anche di generare insidie senza precedenti. Un monito forte e chiaro giunge ora dalla Banca d’Italia, attraverso il sito Money.it, che, durante un’audizione parlamentare, ha acceso un faro potente sulle ombre che accompagnano l’impiego dell’AI nel sistema fiscale. Si prospetta un futuro di controlli quasi in tempo reale e una lotta all’evasione potenziata, ma anche errori sistemici, un’impennata del contenzioso, una cristallizzazione dell’interpretazione normativa e un aggravio dei costi. La sfida, dunque, è quella di governare una tecnologia tanto potente quanto potenzialmente fallibile, mantenendo sempre l’uomo al centro del processo decisionale.

Il percorso dell’amministrazione finanziaria italiana verso la digitalizzazione ha già dato frutti importanti. Misure come la fatturazione elettronica e la trasmissione telematica dei corrispettivi hanno potenziato significativamente il Sistema informativo del fisco, contribuendo a una riduzione del tax gap. Questo termine, per chi non fosse avvezzo al gergo, indica la differenza tra le imposte che dovrebbero essere riscosse e quelle effettivamente incassate. I numeri, richiamati da Via Nazionale durante l’audizione tenuta da Giacomo Ricotti, Capo del servizio Assistenza e consulenza fiscale, parlano chiaro: secondo l’ultima relazione del Mef, la propensione all’evasione fiscale e contributiva si è attestata su 82 miliardi, con una diminuzione del 6% tra il 2017 e il 2021, scendendo a 72 miliardi se si considerano solo le imposte.

Immagine dell'intelligenza artificiale
Immagine dell’intelligenza artificiale, fonte: Money.it

Su queste fondamenta solide si innesta ora il potenziale dirompente dell’intelligenza artificiale. Bankitalia sottolinea come questa tecnologia “amplia notevolmente la possibilità di sfruttamento dei dati“, aprendo scenari “fino a pochi anni fa imprevedibili“. L’AI non solo può aumentare l’efficienza nelle attività ordinarie, ma può abilitare applicazioni sofisticate come l’analisi predittiva dei comportamenti e del rischio di evasione, arrivando a delineare un accertamento svolto nel continuo attraverso l’esame in tempo reale di banche dati immense come l’anagrafe tributaria e quella dei conti correnti. Un percorso già tracciato dalla recente riforma fiscale, in particolare dal decreto accertamento (Dlgs 13/2024), che ha dato impulso all’uso dell’AI in chiave predittiva, affidando il compito a una task force congiunta tra Agenzia delle Entrate e Guardia di Finanza.

Il primo e forse più inquietante pericolo evidenziato dalla Banca d’Italia è quello delle cosiddette “allucinazioni“. Questo termine, mutuato dal gergo tecnico dell’intelligenza artificiale, descrive la situazione in cui un sistema di AI commette errori, generando risultati distorti o completamente errati, quasi come se “inventasse” informazioni. Ciò può accadere perché i modelli di machine learning non sono infallibili o, peggio, perché vengono influenzati da bias, ovvero tendenze o pregiudizi impliciti, presenti nei dati con cui sono stati addestrati. Dati incompleti o discriminatori possono portare l’algoritmo a conclusioni fallaci, con conseguenze pesantissime nel rapporto tra fisco e contribuente.

Meta AI
Meta AI, fonte: Meta

Pensiamo a una risposta errata fornita da un sistema di AI a un cittadino o a un’impresa: andrebbe a scontrarsi direttamente con il principio del “legittimo affidamento“, ovvero il diritto del contribuente di potersi fidare delle indicazioni fornite dall’amministrazione. Il risultato, avverte Bankitalia, sarebbe una spirale di controversie giudiziali e, in ultima analisi, una perdita di fiducia nell’operato dell’amministrazione. Un danno di immagine ed efficienza che il sistema non può permettersi, non credete.

Un secondo alert riguarda la natura stessa del funzionamento dei modelli di AI generativa, come i Large Language Models (LLM), ormai onnipresenti nelle nostre conversazioni digitali. A differenza del ragionamento umano, che può evolvere e adattarsi a nuove circostanze, le dinamiche cognitive dell’AI non operano su regole deterministiche ma generano risultati sulla base di pattern appresi durante il training dei dati a disposizione. Questa caratteristica, se applicata a contesti delicati come le risposte agli interpelli fiscali, rischia di ingessare l’interpretazione normativa.

TaxGPT
TaxGPT, fonte: Open AI

Le soluzioni generate dagli LLM, spiega l’analisi di Bankitalia, sarebbero inevitabilmente ancorate alla logica del precedente. L’intelligenza artificiale si comporterebbe insomma come un vecchio burocrate, incapace di apportare quell’innovazione interpretativa necessaria per adattare le norme a un contesto economico e sociale in continua evoluzione. Si creerebbe così un paradosso: una tecnologia proiettata al futuro che, di fatto, blocca l’evoluzione del diritto tributario, rendendolo meno flessibile alle sfide contemporanee.

Il terzo e quarto punto sollevati da Via Nazionale sono di natura più pratica, ma non meno importanti. L’implementazione di sistemi di intelligenza artificiale così complessi e sofisticati comporta costi significativi, sia per lo sviluppo iniziale che per la manutenzione e l’aggiornamento costante. Inoltre, l’AI, essendo un sistema molto complesso, potrebbe richiedere di appoggiarsi a provider esterni, sollevando il delicato problema di come proteggere i dati sensibili dei contribuenti. Ma la criticità maggiore, e forse la più rassicurante, è che per evitare gli errori che l’AI potrebbe commettere è necessario che la supervisione del processo decisionale sia lasciata a una guida umana. Anche se l’intelligenza artificiale è uno strumento formidabile, ha bisogno del supporto umano, non solo nel Fisco, ma in ogni settore in cui è applicabile. La sfida per il Fisco è proprio questa: riuscire a impiegare la nuova tecnologia e al tempo stesso mantenere la figura umana in primo piano nel processo decisionale, garantendo che la macchina resti un ausilio e non un sostituto del giudizio e dell’etica umana.

Condividi.

Nato il 19 Dicembre 1992, ha capito subito che il cinema era la sua strada. Dopo essersi laureato in filosofia all'università di Palermo e aver seguito esami, laboratori e corsi sulla critica, la storia del cinema e la scrittura creativa, si è focalizzato sulle sue più grandi passioni: scrivere e la settima arte. Ha scritto per L'occhio del cineasta ed è stato redattore per Cinesblog fino alla sua chiusura. Ora si occupa di news e articoli per ScreenWorld.it, per CinemaSerieTv.it e CultWeb.it