news / Digitalizzazione della Pa e l’interoperabilità tra le banche dati pubbliche

torna alle news

Digitalizzazione della Pa e l’interoperabilità tra le banche dati pubbliche

Unione Nazionale Camere Avvocati Tributaristi

Ordinamento tributario, riforme e professione

Premessa

L’oggetto dell’indagine conoscitiva riguarda la digitalizzazione della Pa e l’interoperabilità tra le banche dati pubbliche che, insieme al contrasto all’evasione fiscale, costituisce uno dei punti del Piano nazionale di ripresa e resilienza (Pnrr) varato dal Governo.

Il diritto e la giustizia si trovano di fronte alla sfida della post modernità, di cui la digitalizzazione e l’intelligenza artificiale offrono l’immediata impronta suggestiva di incidere positivamente su costi ed efficienza delle attività, istituzionali e non, fino addirittura alla scomparsa dei siti fisici dei Tribunali e del giurista.

Il rischio più preoccupante è di assistere – e subire - ad un’inversione del rapporto tra “forze ideologiche”, come sono state definite, e tecnica, nel senso che quelle vorrebbero servirsi della tecnica ma diventano esse stesse la struttura di cui la tecnica si serve per espandere la propria potenza. La capacità della tecnica di svalutare il messaggio che vuole trasmettere è, cioè, tale che il messaggio trascolora rispetto all’evidenza della potenza della tecnica di veicolare qualunque messaggio. Analizzare e seguire i riflessi della rivoluzione digitale, perché di rivoluzione si tratta, al pari della sostituzione della tradizione scritta a quella orale, sul diritto e sulla giustizia è, pertanto, dovere dei giuristi. E’ un tributo alle libertà ed alla democrazia, nell’unico solco e presidio di cui disponiamo, la Costituzione.

Ciò va detto, in quanto emerge naturale l’esigenza di comprendere in qual modo la massa sterminata dei dati raccolti e custoditi viene composta ai fini del risultato finale; si tratta di comprendere, ad esempio, come si forma l’algoritmo che origina l’atto amministrativo concernente la sfera del cittadino. Si tratta di comprendere quali siano gli spazi di agibilità, anche politica e non solo procedimentali, per il controllo di quel dato ed evitare la passiva soggezione.

Il contributo di Uncat vuole essere, pertanto, non demolitorio, perché lo sviluppo tecnologico è il quid proprium della storia dell’uomo, ma costruttivo e di guardiano cosciente dei diritti dei cittadini.


Utilizzo della IA da parte dell’Amministrazione Finanziaria – “La macchina deve aiutare l’uomo e non “decidere” al posto dell’uomo” – E’ fondamentale dare alle macchine i “giusti input” al fine di evitare inefficienze e discriminazioni, in quanto la tecnologia è neutrale ma la programmazione no! - I sistemi di intelligenza artificiale (IA) possono risultare un fondamentale ausilio nell’attività istruttoria dell’amministrazione finanziaria, ma il loro impiego nell’elaborazione dell’atto di accertamento dovrà sottostare al rispetto di talune regole imprescindibili.

Il Direttore dell’Agenzia Entrate (Ruffini) in audizione presso codesta Commissione ha ricordato come il Fisco italiano punti sull’intelligenza artificiale per l’analisi dei dati in ottica anti-evasione, grazie anche a un progetto finanziato dalla Ue.

L’obiettivo di favorire l’utilizzo delle nuove applicazioni in un quadro coerente con i valori della Ue si rileva anche dalla proposta di regolamento sull’intelligenza artificiale dello scorso mese (21 aprile) presentata dalla Commissione Ue.

Anche la Direttrice del Dipartimento Finanze (Lapecorella) in audizione presso codesta Commissione ha sottolineato come le nuove tecnologie di analisi dei dati torneranno utili anche per calibrare la prospettata riforma fiscale. Infatti, attraverso micro simulazioni su Irpef e Iva, elaborate dal dipartimento Finanze sulla base delle informazioni sull’andamento delle fatture elettroniche e delle liquidazioni periodiche Iva, si è simulato l’andamento del fatturato e dei costi delle imprese in modo tempestivo ai fini della valutazione d’impatto della crisi pandemica su indicatori come l’utile di cassa o il fabbisogno di liquidità delle imprese.

L’indirizzo, quindi, sembra quello di un utilizzo dell’intelligenza artificiale sempre maggiore nell’attività del Fisco nei diversi Stati. Dall’antievasione alla giustizia tributaria. Conferma ne sono il recente via libera di Bruxelles al finanziamento del progetto delle Entrate sull’analisi “data driven” (processi decisionali sempre più basati sui dati) del rischio di evasione fiscale in Italia e l’impegno richiesto dal piano Next Generation Eu, che prevede un quinto del suo budget agli investimenti digitali.

Il Direttore Ruffini ha evidenziato come le applicazioni dell’Intelligenza Artificiale (IA) da sviluppare sono vaste nell’ambito dell’attività dell’Agenzia Entrate e potrebbero andare dalla selezione dei contribuenti indiziati di evasione all’esecuzione di controlli formali o cartolari, fino alla comparazione di dati economici ai fini dell’accertamento. Ma fin qui si tratta comunque di attività di ausilio all’uomo (funzionario) nello svolgimento dell’attività istruttoria. Il problema è che l’informatica potrebbe spingersi ben oltre: ad esempio predisponendo la motivazione di atti di routine, applicando presunzioni o quantificando le sanzioni. Applicazioni, queste ultime, che pongono però interrogativi giuridici ed etici rilevanti perché per UNCAT deve rimanere fermo il principio che “la macchina deve aiutare l’uomo e non “decidere” al posto dell’uomo”.

UNCAT condivide alcuni dei progetti innovativi del Fisco italiano (già ricordati dal direttore dell’Agenzia, Ernesto Maria Ruffini) come la digitalizzazione dei processi rilevanti ai fini Iva al fine di sfruttare il flusso di dati per potenziare le attività di analisi del rischio e controllo, nonché quello di offrire servizi che semplifichino gli adempimenti.

Le varie attività di machine learning (metodo analisi dati che automatizza la costruzione di modelli analitici) e deep learning (apprendimento profondo analisi di grandi quantità di dati utilizzando reti neurali ispirate al funzionamento biologico del cervello umano) risultano tanto più efficaci quanto più estesa è la base dati che si immettono nella macchina. Ma è fondamentale dare alle macchine i “giusti input” al fine di evitare inefficienze e discriminazioni, in quanto la tecnologia è neutrale ma la programmazione no!

Sicuramente le nuove tecnologie, basate su algoritmi di analisi, ricerca e classificazione, consentono alle macchine di comprendere, agire e imparare, accelerando così i processi decisionali e allo stesso tempo valorizzando il patrimonio informativo del Fisco italiano. Tuttavia, UNCAT ritiene necessario un coinvolgimento di tutti gli operatori del diritto tributario in una preventiva valutazione delle metodologie e della tipologia di dati da affidare all’IA in campo tributario. Delicato, infatti, sarà la costruzione di piattaforme e banche dati che assicurino e garantiscano l’anonimato e il diritto alla privacy.

Pur se il Consiglio di Stato ha sdoganato la legittimità dell’uso di algoritmi per l’attività della Pa (sentenze 2936 e 8474 del 2019), occorre ricordare che la UE ha catalogato a «rischio elevato» per la sicurezza e i diritti dei cittadini, l’utilizzo della IA che coinvolge proprio l’azione degli uffici pubblici: la valutazione delle prove nell’attività di contrasto e l’applicazione della legge ai fatti concreti, nel campo della giustizia.

Siamo convinti che i sistemi di intelligenza artificiale (IA) possano risultare un fondamentale ausilio nell’attività istruttoria dell’amministrazione finanziaria, ma il loro impiego nell’elaborazione dell’atto di accertamento dovrà sottostare al rispetto di talune regole imprescindibili.

Infatti, come ricordato dal Direttore Ruffini, i sistemi di IA nella fiscalità possono essere cruciali per rielaborare tutti i dati di cui il Fisco dispone, provenienti da fonti sempre più numerose (ad oggi ben 161 banche dati). Possono quindi essere usati per selezionare i soggetti da sottoporre a controllo. Si tratterebbe, dunque, di un utilizzo endoprocedimentale, privo di valenza esterna e destinato a completare l’attività istruttoria dell’ufficio. L’elaborazione automatizzata verrebbe così seguita da una fase di trattamento “umana” della questione.

Al contrario UNCAT si dichiara da subito contraria e preoccupata se l’Agenzia pretendesse di fondare l’accertamento su quanto indicato dal sistema di IA. La questione più rilevante, infatti, è la motivazione dell’atto. Infatti, una delle caratteristiche indefettibili della motivazione è che il destinatario dell’atto deve poter comprendere sia il fondamento di ciò che gli viene contestato sia il procedimento logico attraverso cui l’ufficio è giunto ad una certa conclusione. Nel caso dei sistemi intelligenti, la ricostruzione del procedimento logico non potrebbe prescindere dall’accesso all’algoritmo, il quale è, tuttavia, per sua natura inconoscibile, essendo il suo contenuto coperto da rigorose privative. Non è detto che anche il Fisco ne abbia accesso e possa perciò adempiere a tale onere motivazionale. Il Consiglio di Stato nella sentenza 881/2020 lo ha ricordato: la decisione amministrativa automatizzata è subordinata alla piena conoscibilità dell’algoritmo e dei criteri usati per il suo funzionamento.

Sempre il Consiglio di Stato (2270/2019), con riferimento ad un atto amministrativo algoritmico, ha affermato il necessario rispetto del principio di conoscibilità di una regola espressa in un linguaggio non strettamente giuridico, sostenendo che «la caratterizzazione multidisciplinare dell’algoritmo (costruzione che certo non richiede solo competenze giuridiche, ma tecniche, informatiche, statistiche, amministrative) non esime dalla necessità che la formula tecnica, che di fatto rappresenta l’algoritmo, sia corredata da spiegazioni che la traducano nella regola giuridica ad essa sottesa e che la rendano leggibile e comprensibile, sia per i cittadini che per il giudice».


Necessità di regolamentare la Intelligenza Artificiale (IA) – La IA nel campo tributario deve essere utilizzata con elevata attenzione alla tutela dei diritti fondamentali dei cittadini, mediante regole equilibrate e proporzionate – Devono essere vietate attività di social scoring. Recente è la presentazione a Bruxelles del primo regolamento (al mondo) sull’intelligenza artificiale, nell’ottica della necessità di un’innovazione human-centered (progettazione incentrata sull’uomo), sorretta da regole. Alcuni Paesi (tra cui Canada Nuova Zelanda e Australia) stanno regolamentando la trasparenza nell’IA. Anche gli Stati Uniti d’America hanno emanato raccomandazioni su IA tramite la Ftc (Federal trade commission) che ha voluto ricordare alle imprese che, nonostante non vi sia ancora una specifica legislazione in materia anche ai sistemi IA si applicano le norme americane a tutela dei consumatori e che Ftc ha un potere di intervento. Correttamente la Ftc ritiene “essenziale” testare l’algoritmo - sia prima di usarlo che periodicamente dopo - per assicurarsi che non discrimini sulla base della razza, del sesso o di altre classi protette.

Allo stesso modo, se in Italia l’Amministrazione ritiene di ricorrere ad un uso importante dell’IA, occorrerà che sia salvaguardata la trasparenza e l’indipendenza - per esempio, usando strutture di trasparenza e standard indipendenti, conducendo e pubblicando i risultati di audit indipendenti, e aprendo i dati o il codice sorgente all’ispezione esterna.

Si ritiene, quindi, che vadano assolutamente vietate attività di social scoring (attività di valutazione del rischio, sulla base del profilo di una persona, che nasconde però molti rischi di discriminazione) da parte di autorità pubbliche, con conseguente molta attenzione alla tutela della privacy e dei diritti fondamentali della persona in caso di utilizzo di algoritmi “poco trasparenti” tesi ad eventuali classificazioni dei contribuenti che potrebbero prestarsi a discriminazioni ingiustificate.

Si condivide l’idea che bisogna essere al passo con i tempi e non penalizzare il sistema Italia rispetto agli altri Paesi, tuttavia occorre trovare un giusto equilibrio. Giova ricordare che oggi meno del 10% delle applicazioni di IA è regolato e si tratta di temi rilevanti come la nostra salute, la sicurezza e i diritti fondamentali.

Al riguardo si dovrà tenere in debito conto che ci vorranno due anni perché il regolamento sia approvato dalla Ue e poi dovrà essere recepito negli ordinamenti dei Paesi membri, di certo un tempo lungo se raffrontato alla veloce evoluzione della tecnologia.


Banca dati sentenze e Giustizia predittiva - Il ricorso alla IA nella giustizia tributaria non deve andare oltre il semplice ausilio del Giudice e delle parti del processo, onde evitare che possa generare errori per i contribuenti che poi non sia possibile più correggere – Non deve essere violato il principio della “parità delle armi” nell’accesso alle informazioni in danno dei contribuenti – Partecipazione di tutti i protagonisti del processo alla formazione e aggiornamento della super banca dati delle sentenze di merito

Il tema cui UNCAT risulta particolarmente sensibile è quello dell’utilizzo della IA nell’ambito della giustizia predittiva applicata al processo tributario.

Una corrente di pensiero sostiene che, essendo nella giurisdizione tributaria frequenti i contenziosi di massa e le cause seriali, sia opportuno introdurre l’utilizzo della giustizia predittiva utilizzando l’enorme mole di dati raccolti nell’ambito del PTT (Processo tributario telematico).

Tale utilizzo della massa di dati del P.T.T., comporta ad oggi, ad avviso di UNCAT, una violazione del principio di “parità delle armi” nell’accesso alle informazioni in danno dei contribuenti.

Giova ricordare che nel processo tributario telematico, la procedura di deposito e consultazione del fascicolo informatico prevede che:

-gli atti devono essere predisposti in formato Word e poi convertiti in PDF/A, per poi essere acquisiti in via telematica, al fine di avere un fascicolo informatico in PDF con testo che può essere selezionato e copiato;

-oltre ai giudici e segretari delle Commissioni tributarie, soltanto le parti del processo hanno accesso immediato agli atti del fascicolo e ai provvedimenti del giudice.

Questo significa che una delle due controparti (Agenzia delle entrate) avrà immediatamente accesso a tutti gli atti di tutti i processi tributari, con possibilità di selezionare e rielaborare i testi.

Dunque, l’Agenzia delle entrate, catalogando i contenziosi con metadati, potrà individuare velocemente per ciascun tipo di controversia, non soltanto le sentenze favorevoli in tutta Italia, ma anche gli argomenti difensivi usati dagli Uffici periferici, da riutilizzare in nuovi contenziosi. Inoltre, l’Agenzia delle entrate potrà esaminare per ciascun giudice tributario quali argomentazioni difensive hanno ottenuto i migliori risultati.

In tal modo una delle due controparti (il contribuente) avrà accesso soltanto al suo fascicolo; mentre l’altra parte (Agenzia delle entrate) avrà accesso anche a tutti gli altri fascicoli e, in questo modo, potrà individuare, non soltanto i giudizi simili - in cui ha ottenuto sentenze favorevoli -, ma anche gli argomenti difensivi utilizzati per ottenere tali sentenze. È evidente il vantaggio competitivo dell’Agenzia delle entrate nell’accesso alle informazioni. È come instaurare un giudizio in Cassazione senza avere alcuna banca dati di sentenze di legittimità, con una controparte che non solo ha accesso, ma addirittura gestisce ItalGiure Web (la banca dati della Cassazione).

Per riequilibrare questa situazione, siccome non è immaginabile (per ragioni di privacy) consentire l’accesso ai fascicoli processuali di tutti gli altri contribuenti, sarà indispensabile consentire almeno l’accesso a tutte le sentenze delle Commissioni tributarie.

Tale esigenza di necessaria parità delle armi è stata avvertita un pò a tutti i livelli ed ora si parla di una “super banca dati del merito tributario” prevista dal Piano nazionale di ripresa e resilienza (Pnrr). Il progetto, portato avanti anche dal Consiglio di presidenza della giustizia tributaria, prevede la creazione di un magazzino virtuale in cui un algoritmo di Intelligenza artificiale indicizza le sentenze emesse quotidianamente dalle Commissioni tributarie provinciali e regionali. Un’opera che ha già un finanziamento – 3,6 milioni di fondi dell’agenzia per la Coesione territoriale – e che per la sua creazione vede la diretta partecipazione della Direzione tributaria del Mef.

La creazione di questa nuova banca dati si inserisce nel progetto di riforma della giustizia tributaria, affidato a una commissione interministeriale Mef-Giustizia presieduta dal professor Giacinto della Cananea e dalla prof.ssa Fabrizia Lapecorella, Dg del dipartimento delle Finanze. Il governo di Mario Draghi, infatti, indica che il Pnrr «interviene sulla funzione predittiva connessa con la conoscenza della giurisprudenza, anche grazie alle risorse finanziarie disponibili, mediante il perfezionamento delle piattaforme tecnologiche e la loro piena accessibilità da parte del pubblico. Si tratta di un ambito sul quale il Consiglio di presidenza della giustizia tributaria ha prospettato interventi concreti». In questo senso assume rilevanza il concetto di giustizia predittiva, come possibilità offerta a tutte le parti del processo tributario di verificare gli orientamenti seguiti dalle varie commissioni tributarie.

Per UNCAT è necessario, però, che sia permessa una libera fruizione del materiale di questa super banca dati, che dovrà contenere TUTTE le sentenze, anche quelle rispondenti ad orientamenti minoritari e dovrà essere formata ed aggiornata da organismi indipendenti di cui facciano parte componenti di TUTTI i protagonisti del processo tributario, così da garantire la cosiddetta parità delle armi tra agenzie e difensori dei contribuenti.

Uncat è favorevole alla possibilità di poter rapidamente e facilmente conoscere le probabilità dell’esito di un giudizio, ciò, infatti, induce ad evitare cause temerarie e/o a cercare conciliazioni, nonché ad evitare contrasti giurisprudenziali inconsapevoli. Tuttavia è preoccupata che attraverso un ricorso massiccio alla giustizia predittiva o un suo uso distorto si possa arrivare ad un appiattimento degli orientamenti giurisprudenziali consolidati, senza tener conto che proprio il diritto tributario è quello che evolve più velocemente e spesso sono le decisioni di merito con orientamenti innovativi e coraggiosi e disobbedienti agli orientamenti consolidati, che fanno evolvere la giurisprudenza adeguandola alle mutate esigenze della vita reale.

Si condivide l’idea che un uso sapiente della tecnologia nella giustizia possa migliorare la qualità delle sentenze acquisendo, favorendo la stabilità del sistema e, dunque, una prevedibilità che possa anche limitare il contenzioso entro margini fisiologici. Sul punto giova ricordare che già l’art. 47- quater dell’ordinamento giudiziario (RD. N. 12/1941), nell’ambito delle attribuzioni dei Presidenti di Sezione, prevede lo scambio di informazioni sulle esperienze giurisprudenziali, proprio al fine di evitare contrasti inconsapevoli (che non deve e può significare soffocare interpretazioni innovative ed evolutive delle norme).

Ma la novità (rivoluzionaria) che si presenta all’orizzonte consiste nel poter accedere ad una quantità enorme di dati con macchine che hanno una capacità di calcolo senza paragoni rispetto alla mente umana, utilizzando algoritmi in grado di estrarre il senso delle decisioni precedenti per trarre la soluzione di casi nuovi.

Al riguardo la preoccupazione di UNCAT è che in un prossimo non lontano futuro questa potente capacità di calcolo potrebbe essere impiegata, senza regole e adeguati controlli, anche nell’ambito della giustizia tributaria.

Per spiegare le nostre preoccupazioni con un esempio:

il nostro telefono cellulare ci propone il completamento della parola o addirittura della frase che avevamo soltanto iniziato a digitare, con il c.d. “correttore”. Può farlo, perché è dotata di un algoritmo capace di analizzare, su base statistica, la frequenza con cui in precedenti testi compaiono determinate sequenze di parole e, quindi, di proporre la parola o la frase che ha maggiori probabilità di essere la prossima a venire usata.

Ma si chiede: a quanti di noi è capitato di dover correggere i messaggi inviati perché il “correttore” ha sbagliato la sua “previsione” ? Risposta: A TUTTI.

Ebbene la preoccupazione di UNCAT è che il ricorso alla IA nella giustizia tributaria, che vada oltre il semplice ausilio del Giudice e delle parti del processo, possa generare errori per i contribuenti che poi non sia possibile più correggere (come invece si fa con un messaggio sul cellulare).


Esperienze estere e prospettive Italiane di utilizzo della IA nella giustizia - L’uso eccessivo dell’IA senza adeguati controlli e limiti pone problemi etici, di privacy ed il pericolo di creare discriminazioni e diseguaglianze.

In Canada e USA si segnala il programma Blue-J Legal, che rappresenta la più avanzata forma di impiego di tecniche automatizzate nell’ambito delle controversie tributarie. Attraverso un algoritmo, la funzione denominata “Tax Foresight” si occupa di incrociare i dati di numerosi precedenti per pervenire a una percentuale che esprime il possibile risultato atteso di una certa interpretazione o applicazione di norme tributarie.

Per UNCAT l’uso eccessivo dell’IA senza adeguati controlli e limiti pone anche problemi etici, di privacy ed il pericolo di creare discriminazioni e diseguaglianze.

Ad esempio negli USA esistono, addirittura i legal analytics per conoscere “a fondo” avvocati e magistrati. Tramite questi programmi addirittura vengono create graduatorie degli avvocati in base al tasso di vittoria nelle cause, nonché vengono esaminati i profili dei vari magistrati, ovvero di tutti i protagonisti del processo con specifici dati sul loro comportamento processuale.

In particolare, tramite l’applicazione Ravel è possibile conoscere per ciascun magistrato tutte le decisioni, le pubblicazioni, quali argomenti o linguaggio il giudice trova più persuasivo. In questo modo è possibile individuare le argomentazioni che hanno più chance di essere accolte. È sufficiente digitare il nome del giudice.

Ma ciò che è possibile fare per i giudici, è possibile anche per gli avvocati. E qui interviene Premonition, che ordina gli avvocati per win rate, consentendo di scoprire quanto è “bravo” l’avvocato in base al suo tasso di vittoria, riguardo a quali settori e davanti a quale giurisdizione o giudice.

In Francia è già operativa Predictice, la piattaforma che “prevede” l’esito giudiziario (cioè calcola la propensione del giudice riguardo a questa o quella decisione), su una base dati costituita da sentenze di Corti d’Appello e decisioni di Cassazione (dove il processo di dematerializzazione degli atti è iniziato nel 2003). Predictice si affida alle tecniche del machine learning, che permettono di prevedere le probabilità di successo di un procedimento giudiziario e di ottimizzare la strategia processuale degli avvocati sulla base di sentenze precedenti. Nella presentazione di questo servizio si legge che le previsioni sono più affidabili quando si basano su una notevole massa di dati (tutte le sentenze relative ad una determinata questione giuridica), come nei contenziosi di massa e in cause di carattere seriale.

Quali tecnologie vengono utilizzate per estrarre da questi documenti le informazioni che permettono di effettuare le previsioni? In una prima fase, viene automatizzata l’indicizzazione dei dati, aggiungendo metadati. I metadati riferiscono le caratteristiche della controversia.

In una seconda fase entrano in gioco gli algoritmi. Due casi non sono mai identici, quindi l’obiettivo è identificare l’associazione tra un fattore o una combinazione di fattori e la chiusura di un caso. Per farlo, Predictice utilizza l’algoritmo SyntaxNet, sviluppato da Google ed open source dal 2016. Questo strumento di analisi sintattica aiuta gli elaboratori ad interpretare il linguaggio umano e consente di individuare la relazione tra le parole per estrarne il senso. Il testo viene quindi sottoposto ad algoritmi di classificazione/regressione (Vapnik’s) e a regole di associazione (Frequent Pattern Vertical) per creare modelli di previsione complessi. Applicando questi modelli alle caratteristiche della controversia, l’avvocato è in grado di valutare le probabilità di successo. Altro caso interessante riguarda l’University College of London che, nel 2016, ha sviluppato un algoritmo al fine di prevedere le decisioni della Corte europea dei di processi telematici ritti dell’uomo.

Su tali delicati temi la preoccupazione di UNCAT è che un domani i sistemi automatizzati dei processi telematici, non si limitino alla verifica di semplici elementi formali ma assumano dimensioni più vaste, di verifica sostanziale circa alcuni aspetti della domanda posta con i ricorsi. Per UNCAT, nella creazione di una super banca dati dei precedenti, appare necessario creare gruppi di lavoro che estraggano dai provvedimenti non solo la massima, ma anche la illustrazione degli elementi caratterizzanti il caso concreto. Infatti, estrarre dai provvedimenti giudiziari, oltre alla massima, anche la casistica è fondamentale perché “registrare” sui data base la massima senza alcuna indicazione del caso specifico rischierebbe di compromettere i passi successivi.

Infine, nel nostro ordinamento, merita di essere ricordato il progetto Certanet nell’ambito della banca dati ItalGiure Web (la banca dati della Cassazione), da cui si estraggono i “precedenti di legittimità”. Il progetto Certanet, permetterà di individuare l’indirizzo conforme nella giurisprudenza della Cassazione, utile si spera per assicurare la funzione nomofilattica della Suprema Corte, senza però che si trasformi in strumento di “smaltimento dell’arretrato” con automatica dichiarazione di inammissibilità dei ricorsi contrari agli orientamenti maggioritari, senza valutazione delle argomentazioni espresse dai difensori dei contribuenti per superare il predetto orientamento maggioritario, perché errato in partenza o non più aderente al sentire sociale o al contesto politico-economico.

Si deve ricordare che quando si parla di Intelligenza Artificiale, si fa riferimento ad algoritmi, cioè funzioni, i cui input sono contenuti decisionali (nel nostro caso, sentenze e testi giuridici) e gli output sono probabilità di orientamento decisionale: sistemi di machine learning, che eseguono l’incrocio di una gran mole di dati in entrata; la ricerca di correlazione tra questi dati; la deduzione di un modello e l’applicazione del modello a nuovi casi, in autoapprendimento.

Gli algoritmi possono essere sviluppati con approcci molto diversi. In particolare, alcuni algoritmi, definiti “sistemi esperti”, sono in grado di sfruttare una base di conoscenza iniziale, per dedurre nuove conoscenze e informazioni in modo inferenziale. Utilizzando questa tipologia di sistemi, si è sempre in grado di spiegare logicamente le decisioni prese dall’algoritmo.

Il futuro (anzi in molti campi già il presente) è costituito da un sistema completamente diverso, definito deep learning, basato su sofisticate reti neurali. Questi sistemi sono particolarmente flessibili ed in grado di divenire, con varie modalità di apprendimento, molto efficienti. Però, elaborando i dati su base statistica, appaiono come un “oracolo” che non rende facilmente comprensibile perché si generi una determinata risposta.

Si tratta, allora, di scegliere fra strumenti informatici a supporto dell’attività del giurista nel quale l’algoritmo sia predittivo “per logica” oppure “per statistica”. Solo nel primo caso la soluzione, sebbene valida soltanto per casi davvero simili ai precedenti immagazzinati, sarà però sempre trasparente, cioè con una chiara comprensione delle motivazioni alla base delle regole seguite dall’algoritmo.


Giustizia predittiva tributaria - “Una legge non opera senza una sua interpretazione - Errato tentare di standardizzare la realtà - Attenzione a non virare troppo verso un sistema di common law - Deve essere escluso ogni tipo di impiego dell’IA che possa rendere superfluo l’intervento dell’interprete-essere umano - L’IA come funzione di ausilio tecnico-strumentale volta a fornire all’interprete-essere umano quelle elaborazioni in grado di supportarne l’autonomo ragionamento nella soluzione del caso concreto.

Negli ultimi mesi stanno aumentando sempre più webinar e articoli di stampa che affrontano il delicato tema di un futuro dell’I.A. nella prospettiva della giustizia tributaria. L’utilizzo delle nuove tecnologie richiede, oltre a calcolatori altamente performanti (ma per la verità ad oggi difettano in quasi tutte le Commissioni Tributarie gli strumenti tecnologici e la rete adeguata per svolgere le udienze da remoto nel periodo emergenziale), una enorme quantità di dati, che ora iniziano a risultare disponibili grazie all’introduzione del processo tributario telematico, con i ricorsi che devono essere depositati attraverso il sistema SIGIT (Sistema Informativo della Giustizia Tributaria).

Orbene, è proprio questo afflusso massiccio di dati che per alcuni potrebbe porre le basi per poter prospettare l’introduzione della giustizia predittiva in ambito tributario.

Per “giustizia predittiva” deve intendersi la possibilità di prevedere l’esito di un giudizio tramite calcoli complessi, ovvero di prevedere la probabile sentenza, relativa ad uno specifico caso, attraverso l’ausilio di algoritmi.

La possibilità di predire un provvedimento giurisdizionale è dipendente principalmente dal numero e correttezza delle informazioni di cui si dispone: all’aumentare della qualità e quantità di informazioni, aumenta anche il grado di predittività dell’esito di un giudizio. Per i sostenitori di questa proposta il diritto può essere costruito come una scienza, la quale trova la sua principale ragione giustificativa nel fornire più elevate garanzie di certezza, che è obiettivo primario del processo.

Il sillogismo è che se l’art. 65 dell’Ordinamento giudiziario, nell’indicare le funzioni della Corte di cassazione, dispone che questa “assicura l’esatta osservanza e l’uniforme interpretazione della legge e l’unità del diritto oggettivo nazionale”, ovvero se il diritto viene considerato come entità oggettiva, allora deve essere possibile prevederne l’applicazione della sentenza, relativa ad uno specifico caso, attraverso l’ausilio di algoritmi.

Ma siamo sicuri che il diritto possa essere considerata una scienza esatta e una entità oggettiva? Attenzione: “Una legge non opera senza una sua interpretazione” così sosteneva Piero Calamandrei.

Nel nostro caso si deve tener conto delle particolari caratteristiche del settore tributario che come noto è sottoposto a notevoli modificazioni per tener conto della evoluzione della economia, e delle indicazioni della giurisprudenza sovranazionale e non ultimi dei valori di eguaglianza e di solidarietà sociale.

In realtà, si ritiene sia errato tentare di standardizzare la realtà al fine di gestire in modo efficiente gli enormi flussi di informazioni, in quanto ci saranno sempre situazioni uniche e senza precedenti. Se tuttavia la proposta di introdurre la giustizia predittiva in campo tributario deriva dall’arretrato che si è accumulato davanti la Corte di cassazione, le cui decisioni non sempre sono fedeli ai propri precedenti anche nell’ambito dell’identica Sezione, allora si potrebbe pensare ad una migliore organizzazione della stessa, tesa anche al confronto interno e alla formazione di Collegi specializzati nelle varie branche del diritto tributario. Inoltre, come già ricordato, vi è sempre il R.D. 30 gennaio 1941, n. 12 - Ordinamento giudiziario - che all’art. 47-quater, prevede lo scambio di informazioni sulle esperienze giurisprudenziali, al fine di evitare contrasti inconsapevoli.

La preoccupazione di UNCAT è che con l’introduzione della giustizia predittiva si miri ad un ricorso eccessivo a quella che viene definita come “inammissibilità di merito dei ricorsi” in Cassazione prevista dall’art. 360-bis c.p.c. che si ha “quando il provvedimento impugnato ha deciso le questioni di diritto in modo conforme alla giurisprudenza della Corte” e non siano però state prospettate nei motivi “elementi per mutare l'orientamento della stessa”.

Questa disposizione ha una valenza enorme perché dal momento della sua introduzione costituisce il fondamento normativo della rilevanza assoluta del precedente. Ma il nostro è, e deve rimanere, un sistema di civil law, ed occorre stare attenti a non virare troppo verso un sistema contraddittoriamente e inutilmente anceps (uno sguardo al civil law ed uno sguardo al common law).

A favorire questo processo di rivalutazione del diritto giurisprudenziale è la convinzione odierna che il lavoro di adeguamento alla realtà sociale spetta anche, se non soprattutto, al giudice. Si tratta più nello specifico di valorizzare la conoscenza e la applicazione del precedente giudiziario o dello stare decisis termine che nella accezione ormai convalidata dalla dottrina più autorevole si riferisce a “un processo in cui le decisioni intervenute in cause giudiziarie vengono utilizzate per impostare standards utili per i casi a seguire”. Tuttavia si ritiene che proprio una eccessiva enfatizzazione della conformità all’orientamento dominante, sia di ostacolo a quella funzione di innovazione ed evoluzione della Giurisprudenza necessaria ad assicurare il predetto adeguamento alla realtà sociale del momento.

Infatti, gli enunciati normativi per quanto chiari si prestano in varia misura ad interpretazioni differenti secondo la famosa enunciazione della scuola di Oxford per cui “ad ogni enunciato normativo corrispondono almeno due interpretazioni”.

La Corte di Cassazione, infatti, oltre alla uniforme interpretazione della legge e quindi dell’eguale applicazione, spesso è costretta a sostituirsi ad un lento e macchinoso legislatore, elaborando interpretazioni evolutive tenendo conto dei mutamenti della realtà economica e sociale e delle stesse modalità ed accezioni di percepirli (c.d. Interpretazione evolutiva). In via esemplificativa si può accennare al criterio con cui ha proposto recentemente la valutazione ed interpretazione del principio di competenza, di inerenza e di congruità nella determinazione del reddito di impresa.

L’influenza degli strumenti automatizzati deve quindi essere valutata con particolare cura, attesa sia l’importanza della corretta attuazione delle norme fiscali per la finanza pubblica, sia l’esigenza di tutela del contribuente la cui posizione soggettiva viene incisa dall’atto amministrativo, che ha diritto ad una effettiva tutela giurisdizionale.

UNCAT ritiene quindi che l’utilizzo della IA nel processo tributario con funzione predittiva debba limitarsi ad un aiuto per i protagonisti del processo tributario e non possa neanche immaginarsi un futuro in cui si giunga addirittura a redigere la sentenza mediante l’utilizzo di algoritmi in particolare in ipotesi di autoapprendimento della macchina in via robotica, essendo contraria ad una giustizia che non si basi sull’interpretazione umana realizzando il diritto oggettivo, in quanto un tale scenario non lo si ritiene condivisibile sotto un profilo sia etico che giuridico. Si tratta di una prospettiva che investe problemi di filosofia del diritto e di assetto della logica del ragionamento giurisdizionale

La problematica che si presenta riguarda quindi l’effettivo ruolo che i sistemi di intelligenza artificiale possono rivestire nell’ambito della sopra ricordata attività interpretativa: mero ausilio di attività che restano nella sfera di azione di esseri umani; ovvero come autonomo strumento decisorio, fondato sul machine learning (o peggio ancora sul deep learning) e quindi sull’operatività di appositi algoritmi? UNCAT propende per la prima ipotesi.

Si ritiene che l’interpretazione della norma tributaria, che può essere influenzata anche dal particolare contesto socio economico in cui si vive, debba insistere ancora molto sulla percezione dell’interprete, deve derivare cioè da un’attività non meramente meccanica, ma deve essere connotata in termini soggettivi, fondata anche (se non in misura preponderante) sulla sensibilità del Giudice interprete, sulla sua capacità cioè di realizzare un equilibrio tra la formulazione della norma e i caratteri distintivi della fattispecie concreta. Questa esigenza della rilevanza dei profili soggettivi dell’interpretazione conduce, a nostro avviso, a delimitare il ruolo dell’intelligenza artificiale nel giudizio sull’applicazione della norma tributaria. Finché i sistemi di intelligenza artificiale non saranno in grado di dotarsi di qualche forma di coscienza (e quindi, correlativamente, di sensibilità) essi non saranno in grado di soppiantare l’interprete essere umano.

La vera differenza tra il ragionamento/argomentazione giuridica che deve compiere un Giudice e l’attività di raccolta e selezione di dati effettuata dall’intelligenza artificiale sta nel fatto che quest’ultima ha – almeno ad oggi - la sola capacità di elaborare un numero elevato di dati per estrarre delle ricorrenze SOLO probabilistiche; mentre il giurista parte dalla norma e, sulla base di un processo di convincimento fondato su molteplici elementi ed in alcun modo ricostruibile se non (parzialmente) a posteriori, giudica se il caso concreto possa essere o meno sussumibile nell’astratto paradigma della norma stessa. Qui, in ipotesi, si potrebbe del tutto prescindere dai precedenti, non potendosi ridurre il giudizio ad un’operazione puramente meccanica; nel caso dell’intelligenza artificiale no, anzi i precedenti rappresentano l’unico riferimento di una attività che si arresta ad essi e da essi estrae un mero dato probabilistico.

Si può dunque concludere osservando che nel processo tributario debba essere escluso ogni tipo di impiego strong dell’intelligenza artificiale, un impiego cioè che possa rendere superfluo l’intervento dell’interprete-essere umano. Piuttosto, si ritiene che l’IA possa essere utilizzata con la funzione di ausilio tecnico-strumentale volta a fornire all’interprete-essere umano quelle elaborazioni in grado di supportarne l’autonomo ragionamento nella soluzione del caso concreto.


Utilità dell’impiego dell’IA come mero ausilio dei protagonisti del processo tributario

Contribuenti e loro difensori – Vanno evitati profili di discriminazione e disuguaglianza tra professionisti con minori disponibilità finanziarie e più grossi studi professionali e/o società, unici soggetti ad oggi che potrebbero permettersi i costosissimi sistemi di IA.

Per il contribuente ed i suoi consulenti le elaborazioni di tali sistemi possono fornire utili indicazioni per l’impostazione della strategia difensiva (e, prima ancora, per la valutazione della condotta da tenere relativamente al trattamento fiscale di una data fattispecie) e per l’individuazione ex ante delle probabilità di esito positivo dell’eventuale contenzioso. In effetti, gli attuali progetti di impiego dell’intelligenza artificiale si rivolgono nella sostanza proprio ai contribuenti, nell’ottica di valorizzare la funzione predittiva per orientare le scelte processuali di questi ultimi ed evitare quindi di intasare la giustizia tributaria con cause dall’esito positivo probabilisticamente precluso in partenza.

Al riguardo però si osserva che in questo contesto, i sistemi “intelligenti” sono uno tra i molteplici mezzi difensivi di cui ciascun contribuente può avvalersi ed in tal senso non sollevano particolari problematiche giuridiche in punto di utilizzabilità. Al più si dovrebbe tener conto di un eventuale profilo di discriminazione e disuguaglianza che si verrebbe a creare tra professionisti con minori disponibilità finanziarie e più grossi studi professionali e/o società, unici soggetti ad oggi che potrebbero permettersi tali costosissimi sistemi.

Amministrazione Finanziaria – Utilizzo dell’IA per lo svolgimento di istruttoria interna al termine della quale resta necessario l’intervento del funzionario-essere umano capace di assumersi la responsabilità esterna dell’atto emesso - L’accertamento fiscale non può essere fondato esclusivamente sull’algoritmo, che il più delle volte non è conoscibile.

La funzione pubblica da essa esplicata, come già evidenziato, necessita di salvaguardare tutte le attività che vengono poste in essere e, dunque, si ritiene che i sistemi basati sull’IA possano essere impiegati dall’Amministrazione finanziaria con utilizzo esclusivamente endoprocedimentale, privo di immediata valenza esterna e destinato unicamente a completare l’attività istruttoria dell’Ufficio in vista dell’accertamento.

Si ritiene che l’Amministrazione finanziaria, al contrario, non possa fondare l’accertamento su quanto indicato dal sistema di intelligenza artificiale, perché la motivazione dell’atto amministrativo non può basarsi su un algoritmo utilizzato per l’elaborazione dei dati, che il più delle volte non è conoscibile. La caratteristica irrinunciabile della motivazione dell’atto di accertamento è che dalla sua lettura il contribuente destinatario deve essere messo in condizione di comprendere sia il fondamento di ciò che viene contestato sia il procedimento logico attraverso cui da tale fondamento l’Ufficio è potuto pervenire ad una certa conclusione.

Nel caso dei sistemi intelligenti la ricostruzione del procedimento logico non può prescindere dall’accesso all’algoritmo, perché in esso è contenuto il percorso attraverso il quale si è sviluppato il confronto tra le caratteristiche concrete della fattispecie e quelle che, sulla base dei dati conosciuti (immessi) dal sistema, potrebbe essere la soluzione. Non è detto tuttavia che l’Amministrazione finanziaria abbia a sua volta accesso all’algoritmo e possa perciò adempiere a tale onere motivazionale, atteso che in alcuni casi vi è “segretezza” dello stesso algoritmo imposto da chi lo crea, mentre in altri casi è proprio impossibile spiegarlo (c.d. black box alla base del sistema algoritmico di autoapprendimento profondo). Dall’impossibilità di comprendere il modo di funzionare dell’algoritmo, deriva la subordinazione dell’attività amministrativa alle scelte (anche di valore) effettuate in modo autonomo ed incontrollato dai suoi creatori.

Ma il dovere di motivazione dell’atto impositivo, oltre che a garantire il buon andamento dell’attività amministrativa (art. 97 Cost.), mira a consentire al destinatario contribuente il pieno esercizio del proprio diritto di difesa (art. 24 Cost.), il quale passa inevitabilmente dalla piena comprensione dei termini della contestazione a lui mossa dall’Ufficio. Last but no least la problematica legata ai costi di consulenza tecnica che inevitabilmente, anche laddove fosse possibile comprendere l’essenza dell’algoritmo utilizzato, il contribuente sarebbe chiamato a sostenere per comprenderne realmente il funzionamento.

Infine, vi è il problema della valenza probatoria che l’elaborazione effettuata dal sistema intelligente potrebbe avere in giudizio. I limiti di conoscibilità dell’algoritmo possono infatti impattare negativamente anche sull’attività del Giudice, il quale non sarebbe, nella maggior parte dei casi, posto nella condizione di valutare l’attendibilità della ricostruzione dell’Ufficio, se non forse a costo di ricorrere massicciamente a consulenze tecniche d’ufficio, con conseguente lievitazione dei costi della giustizia.

Sul punto giova ricordare che il Consiglio di Stato, con riferimento ad un atto amministrativo algoritmico non fiscale, ha affermato il necessario rispetto del principio di conoscibilità di una regola espressa in un linguaggio non strettamente giuridico, sostenendo che “la ‘caratterizzazione multidisciplinare’ dell’algoritmo (costruzione che certo non richiede solo competenze giuridiche, ma tecniche, informatiche, statistiche, amministrative) non esime dalla necessità che la ‘formula tecnica’, che di fatto rappresenta l’algoritmo, sia corredata da spiegazioni che la traducano nella ‘regola giuridica’ ad essa sottesa e che la rendano leggibile e comprensibile, sia per i cittadini che per il giudice”

Salvo i casi di attività meramente routinarie, residuerebbe l’ipotesi già messa in evidenza dalla dottrina amministrativistica di un impiego di essa in back office, quindi per lo svolgimento di una istruttoria interna al termine della quale vi dovrebbe essere l’intervento del funzionario essere umano capace di assumersi la responsabilità esterna dell’atto emesso. Vi sarebbe, altrimenti, il concreto rischio di “scaricare” sul giudice -e quindi su una fase successiva all’accertamento- la valutazione degli interessi che è invece l’Amministrazione finanziaria a dover compiere in anticipo nel caso concreto.

In campo tributario il rapporto tra contribuente ed Amministrazione finanziaria non è fondato sul consenso e, quindi, appare ragionevole limitare gli spazi di utilizzo di meccanismi automatizzati che, per poter operare in modo forte, necessiterebbero di un ambiente di comune creazione e condivisione delle regole da parte di tutti gli attori coinvolti, come accade nei rapporti tra privati nei quali per l’appunto il ricorso a funzioni automatizzate si sta diffondendo.

Giudici Tributari - Funzione ausiliaria dei sistemi intelligenti, per ricerca ed elaborazione dei precedenti - La “predizione” operata dal sistema di intelligenza artificiale come punto di partenza del processo e non come appiattimento e conclusione dello stesso, per favorire conciliazioni tra le parti o abbandono di cause infondate o come spunto per le parti di fornire validi argomenti idonei a superare il responso dell’algoritmo.

Quanto all’attività del Giudice, si deve osservare che le problematiche di conoscibilità e trasparenza dell’algoritmo che, in ipotesi, dovesse guidare l’attività giudicante sono ancora più delicate rispetto a quelle viste per la decisione amministrativa automatizzata, dal momento che il giudice è il protagonista indiscusso dell’attività di ius dicere e nello svolgimento di tale funzione deve garantire che ogni elemento che ha condotto a formare il proprio convincimento sia ricostruibile e giustificabile. Una situazione che, con riferimento all’algoritmo, appare come si è detto altamente problematica.

Inoltre, con riguardo proprio alle controversie di diritto tributario più rilevanti (in materia ad esempio di abuso del diritto), il necessario bilanciamento degli interessi contrapposti (l’esigenza dell’Amministrazione finanziaria di evitare forme di indebito approfittamento e quella del privato di esercitare liberamente il diritto di iniziativa economica) e la necessità di riempire di contenuto clausole aperte (e quindi non misurabili in modo matematico) richiedono un quid pluris di sensibilità, anche pratica, che allo stato il freddo algoritmo non pare in grado di assicurare.

Certo, anche la decisione del giudice persona fisica mantiene ambiti di inconoscibilità – perché può esservi un substrato ideologico che ne può guidare a priori l’azione - ma il complesso delle garanzie che circondano l’esercizio della sua funzione, soprattutto in termini di motivazione e di impugnabilità, sembrano ridurre le incertezze, le quali peraltro appaiono psicologicamente più accettabili se riguardano un giudice essere umano rispetto ad un giudice virtuale.

Non sembra esservi, quindi, ad oggi la possibilità di sostituire dei sistemi intelligenti al modo di ragionare del giudice. Non resta, perciò, che valorizzare la residua funzione ausiliaria dei sistemi intelligenti, ad esempio per quanto attiene alla ricerca ed elaborazione dei precedenti in grado di rafforzare il ragionamento del giudice e di fornirgli argomenti per fondare la propria AUTONOMA motivazione. Si valorizzerebbe in tal modo la funzione predittiva, sebbene in un’ottica puramente ad adiuvandum rispetto ad una funzione che resta propria del giudice essere umano.

Non si tratta certamente di fare battaglie di retroguardia, tuttavia, allo stato attuale, vi sono nell’ambito del processo tributario, ragioni valide per difendere il modo “tradizionale” di svolgimento del ragionamento giuridico e correlativamente limitare l’impatto del ricorso a sistemi intelligenti. L’aspetto soggettivo, insomma, legato non solo alla preparazione tecnica ma anche all’esperienza - lato sensu - del giurista diviene prevalente e perciò è assai meno riproducibile per mezzo di un algoritmo o di qualsiasi altro strumento automatizzato.

Si ritiene che vada preservata la funzione del giudice essere umano, il cui modus operandi è quello di adattare la norma astratta alle specifiche caratteristiche del caso concreto così sfuggendo ad ogni forma di meccanicismo. Nello svolgimento di questo delicato compito, il giudice - oltre a trarre indirizzi da quanto oggetto di elaborazione da parte della macchina intelligente - potrebbe a sua volta agire nel senso di favorire l’accordo tra le parti ovvero l’abbandono di cause infondate (e quindi in definitiva la deflazione del contenzioso, tanto cara al legislatore degli ultimi anni), presentando loro la “predizione” operata dal sistema di intelligenza artificiale circa il possibile esito del giudizio, senza che ciò però costituisca appiattimento su tali elaborazioni artificiali ma, al contrario, sia lo spunto per le parti al fine di fornire motivati argomenti idonei a superare il responso dell’IA che, quindi, va considerato solo quale punto di partenza per lo sviluppo del processo. Si valorizza così al massimo il contributo delle nuove tecnologie senza alterare in modo sostanziale il modo di essere del ragionamento giuridico, a tutela dei delicati valori che caratterizzano il diritto tributario, anche nella sua proiezione internazionale.


L’intelligenza artificiale nell’ambito del diritto tributario internazionale - L’utilizzo di tale tecnologia nell’interpretazione delle convenzioni fiscali dovrà essere necessariamente limitato. In tale ambito risulta difficile individuare con precisione le norme applicabili; l’influenza della Convenzione multilaterale sul contenuto delle singole Convenzioni bilaterali contro le doppie imposizioni rende complessa la ricostruzione dello stesso contenuto della norma applicabile. Peraltro, i testi delle convenzioni (o dei modelli di convenzione cui la prassi degli Stati si ispira) sono accompagnati da commentari ben più voluminosi dei testi medesimi, funzionali a spiegare la portata ed i limiti applicativi delle relative disposizioni.

Tali strumenti interpretativi sono documenti influenzati dalla politica, nei quali spesso i principi giuridici sono fatti oggetto di un’applicazione a casi concreti che è frutto di scelte ideologiche o comunque imposte dal contingente contesto politico ed economico generale. Il riferimento a tali testi al fine di interpretare una norma convenzionale, dunque, lungi dal risolversi in un’operazione meccanica ed oggettiva, introduce una molteplicità di variabili soggettive.

Inoltre, il diritto tributario internazionale conosce fonti atipiche, non formali, di produzione di norme giuridiche, rientranti nella più generale classificazione di soft law. Si tratta di documenti che, promanando da organismi dotati di forte rappresentatività nell’ambito della Comunità internazionale, assumono un peso giuridico (ed interpretativo) notevole pur non avendo una rilevanza normativa formale. Di essi, dunque, occorre che l’interprete tenga conto, peraltro in modo elastico e quindi largamente discrezionale: la rilevanza interpretativa di tali documenti, insomma, ancora una volta non appare frutto di un’operazione meccanica ed asettica, ma si rivela piuttosto legata ad un delicato esercizio di bilanciamento tra fattori strettamente giuridici ed altri attinenti -in termini generali- al contesto ed alla sensibilità dell’interprete.

L’OCSE, consapevole di queste problematiche, ha posto in essere un apposito strumento, basato su uno speciale algoritmo e capace di dare conto dello stato delle convenzioni bilaterali vigenti per ciascuna giurisdizione. L’OCSE stesso evidenzia però come non si tratti di uno strumento giuridico e che la presenza di errori potrebbe renderne non del tutto attendibili gli esiti. Il campo di applicazione dell’IA al diritto internazionale tributario sembra, quindi, molto ristretto. Nell’ambito delle Convenzioni internazionali e, più in generale, delle norme del diritto tributario internazionale, quel che difetta nella maggior parte dei casi è proprio il precedente, dal quale possa farsi scaturire un indirizzo generalizzabile.

La natura aperta delle clausole generali antiabuso sembra porsi in evidente contrasto con l’esigenza, che è invece propria dei sistemi di intelligenza artificiale, di conoscenza e sistematizzabilità dei precedenti, dal momento che la vaghezza della fattispecie astratta richiede di essere riempita caso per caso senza pericolose generalizzazioni legate a casi precedenti ed inevitabilmente differenti. Allo stesso tempo, la prassi giurisprudenziale non può essere di aiuto, sia perché quantitativamente i casi decisi da corti nazionali non risultano significativi rispetto a quelli non conoscibili sottoposti ad accordo od arbitrato; sia perché su tematiche dai così incerti confini anche la prassi giurisprudenziale appare largamente inconsistente, giustificando il ridimensionamento della portata e del valore del precedente. Ne consegue che, essendo gli usi ad oggi noti dell’intelligenza artificiale in ambito giuridico fondati su precedenti, tra i quali il sistema estrae un principio di applicabilità generale, l’utilizzo di tale tecnologia nell’interpretazione delle convenzioni fiscali dovrà essere necessariamente limitato.


CONCLUSIONI

In Unione europea, proprio quest’anno, si è consumato il primo caso di dimissioni politiche di un presidente del consiglio a causa di in algoritmo fiscale infarcito di bias razziali. Come sappiamo, nel gennaio scorso il governo olandese guidato dal premier Mark Rutte si è dovuto dimettere dopo che una inchiesta parlamentare aveva accertato che il sistema SyRI (Systeem Risico Indicatie) per l’assegnazione dei sussidi sociali, aveva falsamente evidenziato 20mila casi di frode, facendone indebitare molte famiglie per rimborsare le indennità.

Il tribunale distrettuale dell’Aja, chiamato a pronunciarsi sulla legittimità del programma SyRI, pur confermando la possibilità per le autorità pubbliche di avvalersi di strumenti tecnologici per individuare condotte illecite, ha ritenuto il programma fosse troppo invasivo sulla vita delle persone in contrasto con l’articolo 8 della Convenzione europea sui diritti umani (CEDU), nonché non conforme ai principi di trasparenza e di minimizzazione di cui al Regolamento Data Protection UE 2016/679. Inoltre, nel programma SyRI sono stati ravvisati discutibili profili discriminatori a pregiudizio degli immigrati e delle persone con redditi bassi nell’ambito dei meccanismi di identificazione dei casi sospetti di frode mediante la raccolta di dati governativi provenienti da fascicoli fiscali e previdenziali, archivi catastali, registri contenenti informazioni occupazionali e commerciali, sistemi di immatricolazione di veicoli. Il caso del sistema SyRI ci insegna molto sulla necessità di trasparenza degli algoritmi per evitare discriminazioni e per rispettare lo Stato di Diritto. Uncat, l’Unione nazionale delle Camere degli Avvocati Tributaristi, prende atto dei progetti indicati nel PNRR e illustrati in questo consesso dai rappresentanti del MEF e dell’Agenzia delle Entrate, volti all’utilizzo di sistemi di intelligenza artificiale in funzione anti evasione o di calibro della riforma fiscale, per la esecuzione di controlli formali e cartolari, per la comparazione di dati economici a fini di accertamento. Uncat non è contraria “pregiudizialmente” all’utilizzo delle nuove tecnologie per l’analisi dei dati fiscali, per la lotta all’evasione, o per garantire maggiore certezza del diritto. Sarebbe come voler fermare il progresso, atteggiamento luddista che non appartiene alla tradizione degli Avvocati tributaristi. E tuttavia è pienamente consapevole dei rischi che sistemi di AI di machine learning e deep learning implicano in termini di rispetto dei principi di uguaglianza, di difesa, di parità delle parti nel processo tributario. Della giustezza di questa preoccupazione Uncat trova conferma nelle iniziative istituzionali assunte a livello comunitario: la Carta Etica europea sulla Intelligenza Artificiale ed il nuovo regolamento della Commissione Ue sulla disciplina delle applicazioni di Intelligenza Artificiale nel settore pubblico e privato. I giuristi guardano alle norme con occhio sistemico e costituzionalmente orientato ed è per questo il continuo richiamo ad una Intelligenza artificiale human centered, rispettosa dei diritti fondamentali di persone e cittadini deve essere un faro “pro attivo” di verifica della corretta progettazione e adozione di applicazioni di AI sia nel settore pubblico che in quello privato, compliant con tutte le norme etiche e legali. Per questo UNCAT, alla luce dei principi di trasparenza, responsabilità e controllo umano, nel solco dei principi dello Stato di Diritto ed alla luce delle più recenti iniziative a livello comunitario, ritiene che un approccio istituzionale responsabile alla Intelligenza artificiale applicata al sistema fiscale debba

  1. CONDIVISIONE. Coinvolgere tutti gli operatori del settore tributario nella valutazione preventiva della metodologia e della tipologia di dati per la strutturazione dei data set di training e degli algoritmi predittivi, di data analysis e individuare standard e audit indipendenti;
  2. TRASPARENZA. Individuare metodi e tecnologie atti a garantire ai difensori dei contribuenti l’accesso al codice sorgente e/o alla logica sottesa all’applicazione della AI utilizzati a fini fiscali, così come già il Consiglio di Stato ha statuito con riguardo alle decisioni automatizzate della PA;
  3. VERIFICA UMANA. Escludere esplicitamente che l’atto di accertamento dell’Agenzia delle Entrate sia frutto esclusivo di una procedura automatizzata;
  4. RESPONSABILITA’ DELLA AMMINISTRAZIONE FISCALE. Rafforzare l’obbligo di motivazione dell’atto di accertamento;
  5. SCORING VIETATO: Vietare forme più o meno esplicite di social scoring fiscale; Con riguardo alla prospettata iniziative volta alla creazione di una banca dati prodromica a Giustizia predittiva, Uncat sottolinea la necessità di
  6. COINVOLGIMENTO. Condividere con gli operatori i criteri di scelta dei data immessi nella banca dati e di annotazione, in modo che il data set non solo sia al riparo da rischi di discriminazione ma sia rappresentativo e tenga conto del contesto fattuale dei casi;
  7. NO A SENTENZE AUTOMATIZZATE. Escludere che il sistema di AI possa “confezionare” la decisione finale del giudice, rimessa alla sua valutazione esclusiva e dunque responsabilità, potendo costituire il sistema un supporto alla sola attività di studio prodromico alla formulazione della sentenza.

Roma, 19 maggio 2021

Unione Nazionale Camere Avvocati Tributaristi Il Presidente Antonio Damascelli

Hanno collaborato alla stesura della presente nota: Avv. Salvatore Cantelli Avv. Antonio Damascelli Dott.ssa Claudia Morelli

Condividi su: