news / L'applicazione dell'intelligenza artificiale al sistema giustizia tributaria.

torna alle news

L'applicazione dell'intelligenza artificiale al sistema giustizia tributaria.

avv. Silvia Siccardi

Ordinamento tributario, riforme e professione

L’ultimo decennio ha visto una progressiva, talvolta silente, ma certamente inesorabile evoluzione – o, più propriamente, una rivoluzione - degli strumenti informatici a supporto della gestione di tutte le fasi del processo. Siamo oramai avvezzi alla gestione dei processi telematici che pure, inizialmente, hanno suscitato non poche perplessità quanto all’approccio pratico. Anche l’introduzione delle udienze a distanza può dirsi sdoganata, al netto delle obiettive difficoltà tecniche iniziali.
La strada è pertanto tracciata. L’introduzione del processo telematico - i cui primi imbarazzi applicativi paiono ad oggi superati - ha richiesto all'operatore del diritto di abituarsi a governarla, non senza però prescindere dal dovere di vigilare affinché ogni supporto tecnologico applicato alla giurisdizione rimanga un “mezzo”, ovverosia uno strumento agevolativo che operi comunque nel rispetto dei principi fondamentali del giusto processo e del diritto di difesa, come garantiti dalla nostra Carta costituzionale. Ciò che ci attende ora è un’innovazione più grande, ovvero l'introduzione di veri e propri sistemi di giustizia predittiva, che si pongono lo scopo di fornire - in un prossimo futuro - un giudizio prognostico sull’esito dei procedimenti giurisdizionali.

La piccola rivoluzione

La gestione del processo civile, amministrativo e tributario è ormai interamente telematica . Nel rito tributario disciplinato dal D.Lgs. 546/1992, l’unica eccezione alla informatizzazione del processo – ad oggi obbligatoria – riguarda le cause di valore minimo, nelle quali il contribuente è autorizzato a stare in giudizio senza il patrocinio di un difensore abilitato. Questa accentuata “automatizzazione” diventa ancor più evidente se si considera la particolare connotazione del Sigit, il sistema di gestione della piattaforma del processo tributario telematico che, a differenza di quanto avviene nell'ambito del PCT per i procedimenti civili, è un portale interamente informatizzato, che neppure si avvale della posta elettronica certificata per l'iscrizione a ruolo o per il deposito di atti e documenti processuali successivi, ma ne richiede il semplice upload nel fascicolo informatico. È stato da più parti accolto con favore il procedimento di caricamento diretto degli atti nel Sigit che, in linea di principio, ne snellisce la procedura. Tuttavia, il sistema è caratterizzato dalla totale assenza dell'intervento di una “mano umana” che possa eventualmente correggere i cosiddetti “errori non bloccanti” e forzare il deposito in giudizio, proprio come avviene nel PCT attraverso la quarta pec, con la quale viene comunicata l’accettazione del deposito soltanto dopo l’esame “fisico” del fascicolo informatico da parte del cancelliere. Il PTT è dunque un procedimento interamente artificiale e privo della possibilità di interventi manuali, per di più gestito da quella stessa amministrazione finanziaria che spesso riveste la posizione di controparte processuale del contribuente. La circostanza ha inizialmente generato non poche perplessità, a partire dall'obbligo di sottoscrivere digitalmente tutti gli allegati depositati - ivi compresi gli allegati semplici - che nel PCT non necessitano invece di alcuna firma.

Ulteriori segnalazioni di una certa importanza riguardano, a titolo esemplificativo e non esaustivo:

1.la mancata previsione, nell'ambito del Sigit, della possibilità di riconoscere la validità di una firma digitale al tempo della sottoscrizione, sicché se il certificato viene a scadere tra il momento della firma e il successivo momento di iscrizione a ruolo, l'atto a suo tempo validamente sottoscritto non viene accettato dal sistema. e dev’essere nuovamente firmato con un certificato valido;

2.la circostanza per cui, in caso di sottoscrizione con firma digitale appena rinnovata, il sistema respinge il deposito con la causale “certificato non ancora valido”, perché – come riscontrato attraverso il call center del Sigit – il rinnovo si considera (inopinatamente e per mera prassi) effettivo a partire dalla mezzanotte.

Al di là dei rimedi pratici che il difensore si trovi costretto a porre in essere – il più ovvio dei quali è munirsi di più di un certificato di firma – è indubbio che la gestione “unilaterale” ed automatizzata del portale PTT lasci un certo qual senso di impotenza, se non addirittura di rassegnazione: “vuolsi così colà dove si puote ciò che si vuole”, talvolta neppure in perfetta coerenza con le prescrizioni del Codice dell’Amministrazione Digitale.

Se questa è la premessa, diventano assolutamente comprensibili la reticenza e la diffidenza, da parte di alcuni operatori del diritto, di fronte alle prime ipotesi di applicazione del deep learning in materia di procedimenti giurisdizionali: una rivoluzione ben più rilevante ed altrettanto inarrestabile.

La grande rivoluzione

Il procedere dell'innovazione in materia di intelligenza artificiale applicata al sistema giustizia , sembra infatti ad oggi superare il concetto di “mezzo” o “strumento”: si parla sempre più frequentemente di giustizia predittiva, ovvero della possibilità di ottenere dalla IA una risposta in ordine alla ragionevole probabilità di vittoria o di soccombenza nell'ambito di un procedimento giurisdizionale. Cominciano peraltro a farsi spazio alcune preoccupazioni circa la sostituibilità del giudice nel procedimento di formazione del convincimento posto a base di una pronuncia giurisdizionale, o addirittura di uno scenario che escluderà la necessità di ricorrere alla consulenza di un difensore, quando il contribuente sarà capace di estrapolare direttamente, attraverso un algoritmo, le probabilità di successo di una vertenza tributaria che lo riguardi.

Anticipo sin d'ora come, a mio modestissimo avviso, tali timori possano essere ridimensionati, per i motivi – ma tassativamente alle condizioni - che seguono. Il portale del Parlamento europeo, nella sezione attualità , definisce espressamente l'intelligenza artificiale come “l'abilità di una macchina di mostrare capacità umane quali il ragionamento, l'apprendimento, la pianificazione e la creatività”, individuando lo sviluppo della IA come “una delle priorità dell'UE”.

Il documento 2 allegato alla proposta di Regolamento del Parlamento europeo redatta nell'aprile 2021, che stabilisce regole armonizzate sull'intelligenza artificiale , considera “il comparto amministrazione della giustizia e dei processi democratici” come un comparto ad alto rischio.

Nell’inquadrare i sistemi di intelligenza artificiale destinati ai sistemi giudiziari, la UE si sofferma su due specifiche finalità:

-la ricerca nell'interpretazione “dei fatti e del diritto” e

-la “applicazione della legge ad una serie concreta di fatti”.

L’accento sul criterio interpretativo dei “fatti e del diritto” suscita una serie di riflessioni. Da un lato, il “fatto” che la IA è chiamata ad interpretare può essere identificato sia come fatto storico - ovvero la fattispecie concreta posta alla base della pretesa giudiziaria e, nel nostro caso, della pretesa tributaria - che come fatto processuale. Diverrebbe allora fondamentale “istruire” l’algoritmo sia sul thema decidendum sia sul thema probandum, affinché l’elaborazione dei dati probabilistici tenga conto di quali domande il difensore abbia spiegato in giudizio e, specularmente, di quali contestazioni siano state opposte dalla controparte nel processo.

Il punto è significativo: la scansione del dire e contraddire nell'ambito del processo riporta alla centralità della funzione difensiva, dando rilievo all'impostazione che il difensore intende seguire nel proprio percorso argomentativo, in sede giurisdizionale.
Accade infatti che due ricorsi presentati avverso due identici atti impositivi possano condurre – paradossalmente - a due sentenze diverse, proprio perché tali pronunce devono attenersi a quanto dedotto, allegato, argomentato e dimostrato per documenti in sede di giudizio: tutti elementi che condizionano inevitabilmente l’emananda pronuncia giurisdizionale.

Ai sensi dell'articolo 112 cpc, infatti, il giudice deve pronunciarsi sulle domande proposte dal difensore, tanto che qualora una sentenza non si attenga a tale principio, essa risulterebbe viziata o per omessa pronuncia, o per ultrapetizione.
Analogamente, la condotta processuale della controparte potrà influenzare l'esito del giudizio a seconda di quello che quest’ultima contesterà nei propri atti di controdeduzione. Viene in rilievo, in questo caso, l’ulteriore principio di cui all'articolo 115 cpc, ovvero l'obbligo per il giudice di formare il proprio convincimento sulla base non solo delle prove ma dei fatti non contestati. In sostanza, a fronte di un medesimo atto impositivo, la differente impostazione degli scritti difensivi – ma anche la medesima difesa alla quale l'ente impositore abbia controdedotto in maniera differente - potrebbe condurre a sentenze tra loro radicalmente opposte. Non sembra pertanto potersi prescindere dalla necessità che un sistema di intelligenza artificiale finalizzato alla giustizia predittiva tenga conto di tutti gli scritti difensivi depositati in atti, nonché delle prove fornite in giudizio e delle relative contestazioni. Quanto al secondo aspetto enfatizzato dalla UE, riguardante la “applicazione della legge ad una serie concreta di fatti”, la citata proposta di regolamento europeo in materia di intelligenza artificiale evidenzia la necessità che l'algoritmo lavori “in coerenza con le disposizioni vigenti nel settore normativo interessato”.

In conseguenza di tali determinazioni, la giustizia predittiva in materia tributaria dovrà ovviamente partire dal caricamento nell'algoritmo di tutti i dati normativi esistenti. Va da sé che, prima di inserire nel sistema di IA le norme sostanziali e procedimentali che caratterizzano la disciplina tributaria, occorrerà avere riguardo alla gerarchia delle fonti e pertanto alle convenzioni internazionali, alla normativa unionale, alle Preleggi, ai principi costituzionali e, soltanto successivamente, alle norme interne. L'algoritmo dovrà peraltro essere istruito a distinguere la successione delle modifiche normative che intervengano nei singoli ambiti della materia tributaria, tenendo presente i generali criteri di successione delle leggi nel tempo.

Pare altrettanto ovvio che, vista la riserva di legge in materia tributaria prevista dall’art. 3 della Costituzione, gli orientamenti di prassi quali le risoluzioni ministeriali e le circolari non dovrebbero né concorrere a comporre il meccanismo dell'intelligenza artificiale applicata alla giustizia tributaria, né influenzare il processo di formazione decisionale prognostica richiesto all'algoritmo, non trattandosi di fonti primarie. Quanto al contenuto dei precetti normativi, si è già osservato come il diritto tributario, essendo fortemente connotato da elementi numerici – gli imponibili, le aliquote, i termini di decadenza e prescrizione, i criteri di applicazione e di cumulo delle sanzioni – dovrebbe teoricamente prestarsi più di tante altre materie a sviluppare un ragionamento automatizzato. Tuttavia, la normativa tributaria è talmente frazionata e caratterizzata da continui rinvii normativi – anche di secondo grado, ovvero rinvii ad altri rinvii - da risultare in realtà di complessa interpretazione.

Sotto un profilo squisitamente tecnico, altra dottrina evidenzia due caratteristiche tipiche dell’elaborazione in materia di giustizia predittiva:

  • la parzialità: deve essere chiaro che il prodotto finale dipenderà dalle persone che hanno realizzato il progetto, da quali ipotesi teoriche sono state scelte, dagli strumenti tecnici utilizzati. Altre persone e altri strumenti avrebbero creato risultati differenti.

-la riproducibilità: è necessario che sia garantito il libero accesso ai dataset di lavorazione di ogni sistema di IA per verificare i dati inseriti e per elaborare sistemi alternativi che possano essere comparati tra loro. Soltanto attraverso questo procedimento si consentirebbe di testare la funzionalità dello stesso sistema applicato a dati inseriti in maniera differente.

L'operazione avrebbe infatti un carattere scientifico solo se fosse riproducibile, atteso che un risultato univoco - così come avviene, ad esempio, negli esperimenti in materia di biologia o di chimica - si può ottenere soltanto attraverso più analisi distinte.

I generali criteri etici espressi dalla UE in materia di intelligenza artificiale

Nel giugno 2018 la Commissione europea ha istituito un gruppo indipendente di esperti ad alto livello sull’intelligenza artificiale, che ha predisposto un volume di “Orientamenti etici per una IA affidabile” . Viene definita come affidabile una IA della quale siano prestabilite: le basi, la realizzazione ed attuazione, ed infine la valutazione. Le basi di un'intelligenza artificiale affidabile hanno come obiettivo di garantire l'aderenza a quattro principi etici: il rispetto dell'autonomia umana - che conduce a ritenere impraticabile un sistema completamente impermeabile all'intervento dell'uomo - la prevenzione dei danni, l'equità e la esplicabilità.

I criteri previsti per la realizzazione di una intelligenza artificiale affidabile hanno lo scopo di garantire l'attuazione di sette requisiti fondamentali ovvero: l'intervento e sorveglianza umani, la robustezza tecnica e sicurezza, la riservatezza e la governance dei dati inseriti nell'algoritmo, la trasparenza, la diversità non discriminazione equità, il benessere sociale e ambientale e la accountability. Quanto alla garanzia di valutazione, vi è poi un ulteriore aspetto sul quale la proposta di regolamento europeo pone massima attenzione: ovvero l'obbligo di prova ex ante, di gestione dei rischi e di sorveglianza umana sull’algoritmo che, secondo la proposta stessa, faciliteranno il rispetto degli altri diritti fondamentali, riducendo al minimo il rischio di decisioni errate o distorte assistite dalla IA nei settori critici, dei quali fa parte la gestione del comparto giustizia. Nel caso in cui si verifichino violazioni dei diritti fondamentali, il regolamento prevede che debba essere consentito un ricorso efficace attraverso la trasparenza e la tracciabilità dei sistemi di intelligenza artificiale. Sotto il profilo della trasparenza, la proposta prevede un sistema di registrazione delle applicazioni di intelligenza artificiale ad alto rischio in una banca dati pubblica a livello dell'unione europea.

Le software House hanno infatti un enorme interesse economico a posizionarsi sul mercato dei programmi di intelligenza artificiale. È pertanto fondamentale che i prodotti informatici da esse realizzati vengano censiti e rubricati in elenchi ufficiali: solo in tal modo sarà possibile tracciare le varie applicazioni di IA e verificare che le stesse rientrino negli standard tecnici prefissati.
È quindi prevista una sorta di registro delle applicazioni di IA, perché deve essere garantito “alle autorità competenti, agli utenti e alle altre persone interessate” di verificare se il sistema di intelligenza artificiale ad alto rischio sia conforme ai requisiti stabiliti a livello unionale, nonché di esercitare una sorveglianza rafforzata su tali sistemi.

Si tratta di un passaggio che è estremamente importante sottolineare: il rispetto del principio di trasparenza comporta che la facoltà di controllo sia attribuita non soltanto agli operatori del diritto - quali i difensori e i magistrati - ma anche a “qualsiasi soggetto interessato”. La proposta di regolamento vieta poi l'attribuzione di un “punteggio sociale” basato sulla IA per finalità generali da parte di autorità pubbliche. Se si trasferisce questo concetto ad alcuni sistemi che già caratterizzano, ad esempio, l’accertamento tributario standardizzato – dai risalenti parametri e studi di settore ai recenti Isa - si coglie appieno la problematicità di classificazioni predittive che potrebbero concretamente integrare una discriminazione, ovvero la “categorizzazione” di attività d’impresa a presunto rischio di evasione e, dall’altra parte, la premiazione di altre categorie di contribuenti .

Il regolamento europeo prevede infine che, a livello nazionale, gli Stati membri debbano designare una o più autorità nazionali competenti - e tra queste una specifica autorità nazionale di controllo - con il compito di verificare la corretta e puntuale applicazione ed attuazione di tutti i principi sottesi al regolamento. Viene espressamente previsto che una persona fisica o giuridica possa presentare un reclamo alla pertinente autorità di vigilanza del mercato riguardo alla non conformità alla normativa sull'IA: il reclamo sarà trattato in linea con le procedure specifiche di tale autorità.

I criteri etici UE per la IA applicata alla giustizia

La Commissione europea per l'efficienza della giustizia (CEPEJ) ha redatto nel dicembre 2018 la “Carta Etica europea sull’utilizzo dell'intelligenza artificiale nei sistemi giudiziari negli ambiti connessi” .

Rispetto ai principi generali di etica, pertanto, l’elaborato riguarda espressamente il comparto giustizia e fissa cinque principi a fondamento dell'utilizzo dell'intelligenza artificiale “nei sistemi giudiziari e in tutti gli ambiti connessi”, precisando che una scelta etica conforme a tali principi deve essere approcciata “fin dall'elaborazione” dell’algoritmo. Si osservi, per inciso, che nonostante la carta utilizzi un linguaggio per così dire “elegante” (“dovrebbero”, “è auspicabile”), tale scelta terminologica non sembra poter costituire un alibi per disattendere quelli che sono veri e propri obblighi a tutela degli utenti dei sistemi di IA applicati alla giustizia.

Il primo principio al quale si riferisce la Commissione è costituito dal rispetto dei diritti fondamentali: occorre assicurare che l'elaborazione e l'attuazione degli strumenti e dei servizi di intelligenza artificiale siano compatibili con tali diritti. Il trattamento delle decisioni e dei dati giudiziari deve avere finalità “chiare” . La carta etica prevede espressamente che quando gli strumenti di IA sono utilizzati per dirimere una controversia e per fornire supporto nel processo decisionale giudiziario, è essenziale assicurare e salvaguardare il diritto di accesso da parte degli utenti ad un giudice, nonché il diritto a un equo processo espressamente individuato sulla base della parità delle armi delle parti processuali e sul rispetto del contraddittorio. Occorre porre l'attenzione sul fatto che tali criteri devono essere utilizzati con il dovuto rispetto per i principi dello Stato di diritto e dall'indipendenza dei giudici nel loro processo decisionale. La previsione è perfettamente corrispondente ai principi costituzionali del diritto di difesa, del “giusto processo” e della terzietà del giudicante. Stante il tenore della previsione, come visto sopra, il sistema di IA non dovrebbe essere vincolante per il giudice, bensì dovrebbe fornire un mero supporto alla formazione del suo convincimento.

Il secondo principio sancito dalla Carta Etica è la non discriminazione. Si esclude categoricamente che le metodologie utilizzate dalla IA possano condurre ad analisi o usi deterministici e si manifesta l’intenzione di prevenire specificamente lo “sviluppo o l'intensificazione di discriminazioni tra persone o gruppi di persone”. Il criterio, se trasposto nella materia tributaria, censura pertanto tutte le classificazioni di contribuenti ritenuti “a rischio di evasione” e - specularmente – i trattamenti di premialità rispetto a chi si attenga agli standard prefissati all'amministrazione finanziaria.

Il terzo principio fissato dal CEPEJ è il principio di qualità e sicurezza in ordine al trattamento di decisioni e dati giudiziari: quando si tratta di maneggiare tali dati, occorre utilizzare fonti certificate e dati intangibili , che derivino da un'elaborazione di modelli interdisciplinare e che devono lavorare in un ambiente tecnologico sicuro. La Carta prevede che i creatori dei modelli di apprendimento automatico facciano ampio ricorso alla competenza di professionisti del sistema giustizia individuati nei giudici, nei pubblici ministeri, negli avvocati, nonché nei ricercatori e docenti nel campo del diritto. Viene quindi prevista la necessità di squadre di progetto miste.

Il quarto principio prevede che la IA sia improntata a criteri tassativi di trasparenza, imparzialità ed equità. Le metodologie di trattamento dei dati devono essere accessibili e comprensibili a chiunque e deve essere altresì autorizzata la possibilità di verifiche esterne, ovvero poste in essere da soggetti che siano diversi da quelli che hanno predisposto l'intelligenza artificiale. La Carta prevede la necessità di preservare un equilibrio tra la proprietà intellettuale di alcune metodologie di trattamento e l'esigenza di trasparenza. È quindi evidenziato il conflitto, perlomeno potenziale, tra il produttore del software di intelligenza artificiale – del cui interesse economico si è accennato sopra - e l'utente, al quale dev’essere assicurata la possibilità di verificare il processo di elaborazione. Si propone quindi di incaricare autorità o esperti indipendenti, che possano certificare e verificare le metodologie di trattamento o di fornire consulenze anticipate: la previsione di una figura garante corrisponde a quanto sancito dalla proposta di Regolamento generale in tema di IA, sopra richiamata. La medesima esigenza è rappresentata dalla Mozione UNCAT presentata con il numero 134 al XXXV Congresso Nazionale Forense di Lecce - che la ha approvata con il voto favorevole del 71,8% dei Delegati. “E’ necessario, dunque, che venga garantito, tramite la istituzione di un’Autorità terza e indipendente, che la progettazione e la gestione degli strumenti di I.A., applicati al processo tributario e al procedimento amministrativo tributario, siano effettuati in modo da salvaguardare il rispetto dei diritti costituzionali dei contribuenti”.

Il Consiglio di Presidenza della Giustizia Tributaria sta attualmente lavorando alla realizzazione del PRODIGIT, che “si propone di attuare un importante processo di innovazione della Giustizia Tributaria, con il supporto della tecnologia digitale e dell’intelligenza artificiale” e ha in animo di creare un modello sperimentale di miglioramento della prevedibilità delle decisioni attraverso la giustizia predittiva. La circostanza che il beneficiario di progetto sia individuato nel MEF e che la gestione del Prodigit sia affidata a Sogei lascia auspicare che i criteri espressi dal quarto punto della Carta Etica europea – ovvero la trasparenza, imparzialità ed equità dei sistemi di IA – siano in ogni caso rispettati, posto che la pubblica amministrazione non rappresenta quel conflitto di interessi già visto sopra per le aziende private produttrici di software ed è già tenuta ad osservare il generale criterio di “buon andamento” di cui all'articolo 97 della Costituzione.
Anche il PON, Piano Operativo Nazionale dell’Agenzia per la Coesione Territoriale nell'ambito del quale è stato finanziato il progetto Prodigit, prevede un sistema di gestione e controllo, un comitato di sorveglianza e un piano di valutazione .

Il quinto e ultimo principio fissato dalla Carta Etica europea è costituito dalla possibilità di controllo da parte dell'utilizzatore. Viene espressamente previsto che i principi della Carta etica siano sottoposti a regolare applicazione, monitoraggio e valutazione da parte di “attori pubblici e privati” al fine di un continuo miglioramento, nonché che l'intelligenza artificiale vada a “rafforzare e non a limitare l'autonomia dell'utilizzatore”.

Il controllo sul sistema di intelligenza artificiale è pertanto garantito anche “a valle” e ad esso sono ammessi sia gli utilizzatori pubblici sia quelli privati.

Quanto all’utilizzatore pubblico, che potrebbe identificarsi con l’operatore della giustizia – giudice e difensore - la Carta Etica salvaguarda la possibilità di rivedere le decisioni giudiziarie e i dati utilizzati dall'algoritmo per produrre un certo risultato. L'operatore non deve pertanto essere necessariamente vincolato alla luce delle caratteristiche specifiche del caso concreto. L’assunto pare confermare che la IA applicata alla giustizia sia considerata come un mero supporto e non già come un futuro “sostituto” dei magistrati o dei difensori.

Per la piena realizzazione del punto 5 della Carta Etica , è previsto l’avvio di una alfabetizzazione informatica destinata agli utilizzatori , in modo da porre questi ultimi in condizioni di comprendere e verificare il funzionamento dell'intelligenza artificiale. La definizione equiparata di coloro – soggetti pubblici e soggetti privati – che debbono essere abilitati alle attività di controllo e monitoraggio, conduce a ritenere che non sia negli intenti della UE il riservare una posizione privilegiata all’amministrazione finanziaria rispetto ai contribuenti, in ordine a tali poteri valutativi.

Silvia Siccardi, avvocato tributarista cassazionista, Segretario Generale Uncat, tesoriere Ordine Avvocati Rimini

Condividi su: