Blog Layout

Intelligenza artificiale e diritto amministrativo

a cura degli Avvocati Daniela Anselmi, Chiara De Martino e Federico Smerchinich • apr 24, 2022

INTRODUZIONE

Per Intelligenza artificiale (IA) si intende la capacità di un sistema tecnologico di risolvere problemi o svolgere attività tipiche della mente e dell’agire umano ed è utilizzata nei settori più disparati, da quello della medicina (già oggi esistono robot chirurgici che altro non sono che estensioni delle mani del chirurgo controllate da remoto, i quali consentono di effettuare interventi più precisi e meno invasivi di quelli tradizionali), della difesa (si fa riferimento a varie tipologie di robot, tra i quali sistemi d’arma letali autonomi destinati ad operare al posto dei soldati in missioni particolarmente rischiose), dei trasporti (treni metropolitani a guida automatizzata) a quelli della produzione a livello industriale di robot umanoidi, capaci di aiutarci in qualsiasi tipo di lavoro.

I robot autonomi eseguono quanto programmato senza la partecipazione dell’uomo, ma elaborando i dati e le informazioni acquisite nel corso del tempo, adeguando il loro comportamento al contesto in cui si trovano ad agire. Secondo alcuni, il fatto che la macchina esegua scelte non condizionate dalle istruzioni date dall’uomo, ma autonome in quanto costruite dallo stesso robot, non eliminerebbe comunque il fatto che si stanno soddisfacendo bisogni ed esigenze pur sempre umani.

Ad ogni modo, il mondo dei robot suscita comunque delle perplessità in materia di “biodigitale”, laddove bisogna classificare il ruolo di queste macchine all’interno di un complesso sistema fatto di responsabilità e doveri rispetto alle azioni poste in essere.

Tali sistemi funzionano tramite gli algoritmi, cioè, nel linguaggio matematico, “una sequenza di passaggi elementari, secondo una sequenza finita e ordinata di istruzioni chiare e univoche (ognuna delle quali eseguibile entro un tempo finito e che produce un risultato in un tempo finito) per la risoluzione di un dato problema”. [1]

Siccome ormai, sulla base di appositi algoritmi, si è giunti anche a formulare previsioni o assumere decisioni, si è posto il problema di applicare un sistema di IA anche in ambito giudiziario, alla luce delle Carta Etica Europea del 2018, la quale consente l’uso dell’intelligenza artificiale nei sistemi di giustizia penale, a condizione che vi sia un controllo costante, dovendosi sempre tenere in considerazione un limite fondamentale dell’IA, ovvero l’incapacità di adattare il suo funzionamento al di fuori del proprio modello.

Tra i vari ambiti in cui si sta tentando di introdurre l’intelligenza artificiale vi è anche quello del diritto e in particolare della giustizia, tanto che si parla di “giustizia predittiva”.

In generale, si distingue tra intelligenze artificiali “forti” (in grado di contestualizzare e risolvere in modo autonomo problemi specialistici molto diversi tra loro) ed intelligenze artificiali “deboli” o “moderate” (in grado di fornire prestazioni specifiche qualitativamente equivalenti e quantitativamente superiori a quelle umane, non raggiungendosi le reali capacità intellettuali tipiche dell’uomo).

Le IA utilizzate per il trattamento e l’analisi della giurisprudenza, su cui si fondano le applicazioni di “giustizia predittiva” appartengono a questa seconda categoria e si basano in particolare su due tecniche:

- il “natural language processing” (trattamento del linguaggio naturale): ci si riferisce al trattamento informatico del linguaggio umano;

- il “machine learning” (apprendimento automatico): questa tecnica permette di costruire uno o più modelli matematici una volta identificate le correlazioni esistenti tra grandi masse di dati. La macchina, dunque, ricerca in modo autonomo le correlazioni e deduce delle regole dall’enorme quantità di dati forniti.

Dal punto di vista storico, il primo modello di rete neurale risale alla fine degli anni ’50, il cd. “percettrone”, proposto da Frank Rosenblatt nel 1958, una rete con uno strato di ingresso ed uno di uscita ed una regola di apprendimento intermedia basata sull’algoritmo “error back-propagation” (minimizzazione degli errori).

Alcuni esperti del settore riconducono proprio al percettrone la nascita della cibernetica e dell’Intelligenza artificiale, anche se negli anni immediatamente successivi i due matematici Minsky e Papert ne dimostrarono i limiti: tale modello era in grado di riconoscere, dopo opportuno “addestramento”, solo funzioni linearmente separabili; inoltre, le capacità computazionali di un singolo percettrone erano limitate e le prestazioni fortemente dipendenti sia dalla scelta degli input sia dalla scelta degli algoritmi attraverso i quali “modificare” le sinapsi e quindi gli output.

La prima svolta importante dal punto di vista tecnologico arriva tra la fine degli anni ’70 e il decennio degli anni ’80 con lo sviluppo delle Gpu che hanno ridotto notevolmente i tempi di addestramento delle reti, abbassandoli di 10/20 volte.

È dunque quasi da cinquant’anni che esistono sistemi di intelligenza artificiale.

Dal punto di vista delle abilità intellettuali, il funzionamento di un’IA si sostanzia principalmente attraverso quattro differenti livelli funzionali:

1)        Comprensione;

2)        Ragionamento;

3)        Apprendimento;

4)        Interazione;

I programmi dotati di capacità di autoapprendimento informatico sono installati negli strumenti elettronici (telefono, pc, tablet) che ognuno di noi utilizza nella sua vita umana: i motori di ricerca, le piattaforme di commercio elettronico, i sistemi di riconoscimento facciale o di assistenza vocale, i software per l’individuazione di soluzioni economiche o logistiche.

Gli esempi a tutti noti sono Facebook, Google, Amazon, Apple e Microsoft (si può far riferimento, al riconoscimento dei volti, delle immagini, alle applicazioni vocali, alle traduzioni linguistiche…), la potenzialità dell’IA si estrinseca in particolar modo nel mondo del business (vendite, marketing –con riferimento soprattutto all’Artificial Intelligence Marketing-, sanità, cybercrime, pubblica sicurezza…).

Per quanto riguarda l’intelligenza artificiale applicata alle vendite, si possono già riscontrare importanti risultati grazie all’utilizzo di sistemi esperti (in quanto riproducono le prestazioni di una persona esperta di un determinato dominio di conoscenza o campo di attività) per la configurazione delle proposte commerciali complesse, per la natura stessa dei prodotti commercializzati, per le combinazioni possibili delle soluzioni o per le variabili che possono incidere sul risultato finale, dovendo, dunque, il configuratore di prodotto assolvere il compito di semplificazione nella scelta di un bene da acquistare.

L’IA esplica la sua massima potenza nell’ambito del marketing, facendo particolare riferimento all’ambito della gestione della relazione con gli utenti. Al riguardo è nata una vera e propria disciplina, l’“Artificial Intelligence Marketing” (AIM), una branca del marketing consistente nell’utilizzo degli algoritmi di Intelligenza Artificiale e Machine Learning con l’obiettivo di persuadere le persone a compiere un’azione, acquistare un prodotto o accedere ad un servizio (in altre parole, rispondere ad una “call to action”).

L’IA ha poi avuto modo di addentrarsi nel mondo della sanità e dell’HealthCare, migliorando molti sistemi tecnologici già in uso da persone con disabilità o nel fare le diagnosi.

Altro ambito applicativo riguarda la prevenzione delle frodi all’interno di altri contesti aziendali, per esempio la mitigazione dei rischi, la protezione delle informazioni e dei dati, la lotta al cybercrime.

Insomma, la capacità di analizzare grandissime quantità di dati in tempo reale, attraverso la loro correlazione, abitudini, comportamenti e dati di geo-localizzazione e monitoraggio degli spostamenti di cose e persone, offre un potenziale enorme per il miglioramento dell’efficienza e dell’efficacia della sicurezza pubblica. Dall’altra parte, però, rappresenta un sistema di controllo e schedatura di ogni singolo individuo, che necessariamente deve essere usato e approcciato con prudenza.

Attualmente a livello europeo si sta accelerando verso sistemi basati su algoritmi, tanto che Margrethe Vestager, Vicepresidente esecutiva per Un'Europa pronta per l'era digitale, ha dichiarato: "Per quanto riguarda l'intelligenza artificiale, la fiducia non è facoltativa, è indispensabile. Queste regole rappresentano una svolta, che consentirà all'UE di guidare lo sviluppo di nuove norme globali per garantire che l'IA possa essere considerata affidabile. Definendo le norme possiamo spianare la strada a una tecnologia etica in tutto il mondo e garantire che l'UE rimanga competitiva. Le nostre regole saranno adeguate alle esigenze future e favorevoli all'innovazione e interverranno ove strettamente necessario: quando sono in gioco la sicurezza e i diritti fondamentali dei cittadini dell'UE."

Thierry Breton, Commissario per il Mercato interno, a sua volta ha sostenuto: "L'IA è un mezzo, non un fine. Esiste da decenni, ma ora sono possibili nuove capacità alimentate dalla potenza di calcolo. Ciò offre un enorme potenziale in tanti settori diversi tra cui la sanità, i trasporti, l'energia, l'agricoltura, il turismo o la cibersicurezza, ma presenta anche una serie di rischi. Le proposte odierne mirano a rafforzare la posizione dell'Europa quale polo globale di eccellenza nell'IA dai laboratori al mercato, a garantire che l'IA in Europa rispetti i nostri valori e le nostre regole e a sfruttare il potenziale dell'IA per uso industriale."

 

La Carta Etica Europea sull’applicazione dell’intelligenza artificiale alla giustizia

La questione dell’applicazione dell’IA nel settore della giustizia non è nuova. Basti pensare all’emanazione, avvenuta il 4 Dicembre 2018, da parte della Commissione Europea per l’Efficacia della Giustizia (CEPEJ) del Consiglio d’Europa, della “Carta Etica Europea per l’uso dell’intelligenza artificiale nei sistemi di giustizia penale e nei relativi ambienti”.

Si tratta di uno strumento non vincolante ma che ha il merito di enunciare principi sostanziali e metodologici applicabili sia agli attori privati (come le start-up attive sul mercato delle nuove tecnologie applicate ai servizi giuridici) sia alle autorità pubbliche.

E’ la prima volta che a livello europeo vengono individuate alcune fondamentali linee guida, alle quali dovranno attenersi “i soggetti pubblici e privati responsabili del progetto e sviluppo degli strumenti e dei servizi della IA”.

In particolare, la Carta Etica enuncia i seguenti principi:

1)        principio del rispetto dei diritti fondamentali (diritti garantiti dalla CEDU e dalla Convenzione n.108 del Consiglio d’Europa sulla protezione dei dati personali);

2)        principio di non discriminazione;

3)        principio di qualità e sicurezza;

4)        principio di trasparenza delle metodologie e delle tecniche utilizzate nel trattamento delle decisioni giudiziarie;

5)        principio di garanzia dell’intervento umano, conosciuto anche come principio “under user control”, finalizzato a precludere un approccio “deterministico” ed assicurare che gli utilizzatori agiscano come soggetti informati ed esercitino il controllo delle scelte effettuate.

L’auspicio della CEPEJ è che questi principi diventino l’asse portante di una “cybergiustizia” a livello europeo e che possano divenire un riferimento concreto per i magistrati, le autorità giudiziarie o politiche.

A seconda della diversa tipologia dei dati inseriti nell’elaboratore (input), degli algoritmi di apprendimento utilizzati dal sistema (learning algorithms) e del risultato finale del procedimento di elaborazione (output), sono ipotizzabili tre diversi modi attraverso i quali la tecnologia delle machine learning può agevolare il lavoro degli operatori del diritto e, di conseguenza, rendere più efficiente la giustizia:

-analisi e predisposizione automatica di atti e documenti;

-previsione dell’esito di una causa;

-formulazione di giudizi, seppur sotto il controllo umano;

Dunque la funzione è principalmente servente e non sostitutiva.

Ci si può soffermare, ora, sulle tre citate funzioni.


Analisi e predisposizione automatica di atti e documenti

La prima modalità trova preferibilmente applicazione nel campo del diritto civile e commerciale, segnatamente quando si tratta di analizzare documenti o predisporre atti per lo più ripetitivi, sebbene non possa precludersi l’utilizzo in ambito penale (ad esempio, per determinare il limite oltre il quale gli interessi pattuiti in contratti di mutuo sono da ritenersi usurari).

Una recente applicazione dell’IA nel campo del diritto penale è quella del sistema “Toga”, consistente in un database nel quale sono censite tutte le fattispecie criminose disciplinate dal codice penale e dalla legislazione speciale, che permette di verificare, tra l’altro, la competenza, la procedibilità, l’ammissibilità a riti alternativi, i termini prescrizionali e di durata delle misure cautelari, nonché di calcolare la pena per ciascun tipo di reato.

Altra recente applicazione, utilizzata in occasione del crollo del ponte Morandi, nell’ambito della quale la Procura di Genova ha deciso di utilizzare un software dell’FBI, dotato di algoritmi particolarmente complessi, con l’obiettivo di incrociare tutti i dati raccolti con quelli dei dispositivi elettronici sequestrati, con la documentazione tecnica ed i pareri dei consulenti sia del P.M che della difesa.

Del resto, negli Stati Uniti esistono già da tempo servizi di intelligenza artificiale dedicati al mondo del diritto: si pensi, a titolo esemplificativo, al sito ROSS Intelligence che, munito di un ricco database di giurisprudenza, consente agli avvocati di redigere atti tenendo conto dell’orientamento dei giudici su un determinato argomento.

Ma, di questo passo, con il progressivo sviluppo della tecnologia informatica e la prevedibile introduzione di nuovi e più perfezionati sistemi di IA capaci di rivaleggiare con le capacità umane (se non di superarle), non ci sarà pericolo per gli avvocati che il computer possa loro sostituirsi in un prossimo futuro svolgendo i medesimi compiti, con meno tempo, con minori costi e magari con maggiore precisione?

Da alcune statistiche raccolte dall’Università di Oxford nel 2013, tenuta a verificare l’impatto dell’automazione su molti dei lavori esistenti, è emerso come almeno la metà sia destinata a scomparire.

Il riferimento va, in primis, ad operatori di call center, bibliotecari, trascrittori, analisti finanziari, magazzinieri, autisti di taxi (minacciati dalla sperimentazione di auto a guida automatica, lavoratori edili (per prefabbricati costruiti in stabilimenti totalmente robotizzati) e cuochi (minacciati da robot chef, come accaduto alla Fiera di Hannover nel 2015).

Nell’elenco dei lavoratori destinati ad essere sostituiti dal lavoro delle macchine non sono invece ricompresi insegnanti, medici, artisti, avvocati (almeno per ora), ed in genere coloro i quali svolgono attività che richiedono intense interazioni sociali.

In realtà a mettere un freno ai timori che da mesi spopolano sul web in ordine alla responsabilità dell’IA nella “distruzione” di posti di lavoro (si sottolinea, inoltre, che secondo un report realizzato da McKinsey Global Istitute del Gennaio 2019, circa la metà dell’attuale forza lavoro possa essere impattata dall’automazione grazie alle tecnologie già in uso oggi), arrivano diversi studi, tra i quali spiccano:

- lo studio di Capgemini (“Turning AI into concrete value: the successfull implementers’ toolkit”), l’83% delle imprese intervistate conferma la creazione di nuove posizioni all’interno dell’azienda, potendosi, inoltre, registrare un aumento delle vendite del 10% proprio in seguito all’implementazione dell’IA;

- il report di The Boston Consulting group e MIT Sloan Management Review dimostra che la riduzione della forza lavoro è temuta solo da meno della metà dei manager (47%), convinti invece delle sue potenzialità;

- la nuova ricerca di Accenture (“Reworking the Revolution: Are you ready to compete as intelligence technology meets human ingenuity to create the future workforce”) stima che i ricavi delle imprese potrebbero crescere del 38% entro il 2020, a patto che si investa nell’IA e su un’efficace operazione uomo-macchina.


Previsione dell’esito di una causa

Una seconda modalità applicativa dell’IA alla giustizia è quella “predittiva”, consistente, come già suesposto, nella capacità di elaborare previsioni mediante un calcolo probabilistico effettuato da algoritmi operanti su base semplicemente statistica o anche solo logica.

Tale capacità, a seconda della tipologia di dati introdotti nell’elaboratore, può essere utilizzata in funzione di tre diverse finalità:

- come strumento di prevenzione della criminalità;

- come strumento integrativo dell’attività del giurista per l’interpretazione della legge e l’individuazione degli argomenti a favore della tesi che si intende sostenere;

- nella capacità di “prevedere” l’esito di un giudizio.

La giustizia predittiva è stata utilizzata in altri ordinamenti per ulteriori finalità: negli USA, ad esempio, per calcolare la probabilità di recidiva di un imputato al fine di decidere se rilasciarlo o meno su cauzione (cd. “algoritmo Compas”).

Il tema della prevedibilità delle decisioni è già da tempo al centro di un vivace dibattito dottrinale: il fatto che sia possibile prevedere l’orientamento decisionale di un giudice è stato ritenuto per certi versi positivo, nella misura in cui può servire a migliorare il livello di efficienza della giustizia, e per altri versi negativo, per il rischio di riduzione ad una gestione automatizzata di affermazioni standardizzate.


Formulazione di giudizi

Da sempre, ci si chiede se una machine learning, dopo un adeguato periodo di apprendimento, possa emettere un giudizio.

Forse, alcune tipologie di controversie ben potrebbero essere risolte automaticamente: si pensi, ad esempio, ad una causa di risarcimento danni da sinistro stradale in campo civile (sulla base dei rilievi compiuti dai verbalizzanti e della documentazione prodotta, un computer potrebbe sia individuare il responsabile del sinistro sia procedere alla quantificazione del danno risarcibile), oppure ancora al settore tributario (ad esempio, ricorsi avverso avvisi di accertamento originati da verifiche bancarie e fondati sulla presunzione secondo la quale sono posti a base delle rettifiche i movimenti finanziari che non trovano riscontro nelle scritture contabili).

Tuttavia, l’impiego dell’intelligenza artificiale appare più problematico per la decisione nell’ambito di un giudizio civile, penale o amministrativo, dipenda principalmente dal fatto alla base della vicenda. L’algoritmo, benché in grado di incrociare dati ed informazioni, non può, difatti, apprezzare tutti gli spunti legati alla descrizione di un fatto di causa o alle prove a fondamento dello stesso. D’altronde, per un algoritmo che apprende risulta essere un “fatto” sia la norma giuridica che il fatto materiale.

 

Novità in materia di intelligenza artificiale

Lo stato dell’arte a livello europeo, fa registrare la proposta di un Regolamento del parlamento europeo e del consiglio che stabilisce regole armonizzate sull'intelligenza artificiale (legge sull'intelligenza artificiale) e modifica alcuni atti legislativi dell'Unione. Tale regolamento basa l’uso dell’intelligenza artificiale sul rispetto della trasparenza, sull’analisi del rischio di utilizzo dell’IA e sulla compatibilità dell’intelligenza artificiale con i principi fondamentali dell’UE.

L’adozione di questo regolamento è slittata nel corso del tempo soprattutto a causa di disaccordi politici relativi alle modalità di individuazione dei software da utilizzare o del delicato tema del riconoscimento biometrico che consente di identificare in tempo reale le persone.

A tali rischi, si aggiunge quello legato alla riservatezza e alla privacy, considerando che la mole di dati elaborati dagli algoritmi non garantisce la protezione assoluta dei dati personali. Uno dei principali rischi riguarda, infatti, la sorte di tali dati e come gli stessi saranno gestiti.

Il regolamento in questione è stato adottato proprio per superare i rischi suddetti e garantire una maggiore sicurezza nel ricorso all’intelligenza artificiale.

In tale contesto, il regolamento tenta anche di porre degli obblighi a carico delle imprese fornitrici di software per l’elaborazione informatica, al fine definire degli standard di conformità che riducano al minimo i rischi e i costi per le aziende.

In precedenza, nel 2020, era stato redatto il “Libro Bianco sull'intelligenza artificiale - Un approccio europeo all'eccellenza e alla fiducia”, al fine di assicurare un approccio normativo e orientato agli investimenti con il duplice obiettivo di promuovere l'adozione dell'IA e di affrontare i rischi associati a determinati utilizzi di questa nuova tecnologia. Lo scopo del Libro Bianco era di definire le opzioni strategiche su come raggiungere tali obiettivi. La Commissione ha invitato gli Stati membri, le altre istituzioni europee e tutti i portatori di interessi, compresi l'industria, le parti sociali, le organizzazioni della società civile, i ricercatori, il pubblico in generale e tutte le parti interessate, ad esprimersi in merito alle opzioni presentate di seguito e a contribuire al futuro processo decisionale della Commissione in questo settore.


L’intelligenza artificiale applicata all’attività amministrativa

Attualmente, il settore giuridico in cui l’intelligenza artificiale ha trovato già la sua estrinsecazione e applicazione pratica è quello delle scelte della pubblica amministrazione, soprattutto laddove si tratta di discrezionalità tecnica o vincolata (es. concorsi, punteggi, calcoli).

Nel corso del tempo, difatti, è stata superata l’Amministrazione 1.0, basata unicamente su rapporti cartacei, per addivenire prima all’Amministrazione 2.0 che si avvaleva in modo servente di computer e altri mezzi tecnologici, e poi all’Amministrazione 3.0 che utilizza anche le risorse e le piattaforme fornite dalla rete web, per giungere all’Amministrazione 4.0 che affida alle macchine la realizzazione di scelte prima gestite unicamente dall’uomo.

Il processo di automazione può incidere diversamente sul procedimento amministrativo. In alcuni casi, le macchine sono in grado di fornire come output il provvedimento finale, mentre in altri coadiuvano i funzionari o il RUP nella raccolta dei dati e delle informazioni necessarie a realizzare la scelta. In altre parole, le macchine possono aiutare gli amministratori nelle diverse fasi procedimentali, sostituendosi o affiancandosi ad essi.

In tale scenario il ruolo dell’uomo si sposta dalla corretta esecuzione di tutti i passaggi procedimentali, alla legittima scelta del tipo di algoritmo e di macchina da utilizzare per farsi sostituire-aiutare nello svolgere il procedimento.

Nel settore che cura gli interessi pubblici, dunque, le machine learning sono diventate oggetto di un sempre maggiore interesse, inizialmente nei paesi anglosassoni per poi giungere anche in Italia. Ad esempio negli Stati Uniti ed in Inghilterra, vi sono state le prime regolamentazioni di questi robot, ma successivamente il Parlamento Europeo ha approvato una risoluzione sulla disciplina robotica e i sistemi di intelligenza artificiale. In Italia, invece, l’AGID (Agenzia per l’Italia Digitale) ha pubblicato il Libro Bianco sull’Intelligenza Artificiale. Attualmente, il PNRR, come si vedrà ha posto degli indirizzi ed obiettivi, che spetterà alle singole amministrazioni raggiungere e realizzare.

Calandoci nel contesto normativo, diversi articoli vengono in rilievo quando si applica l’automazione al procedimento amministrativo, potendosi ritenere che l’uso di macchine nell’attività amministrativa possa farsi rientrare all’interno delle scelte per perseguire il buon andamento amministrativo previsto dall’art. 97 Cost. E così, vi è l’art. 3 bis l. n. 241/1990 come modificato dal d.l. 76/2020, che lega l’efficienza delle pubbliche amministrazioni all’uso di “strumenti informatici e telematici” sia nell’attività interna all’ente che nei rapporti tra pp.aa. e privati.

Oppure l’art. 50 ter d.lgs. n. 82/2005 che regola i rapporti di interconnessione tra pp.aa. disciplinando anche la Piattaforma digitale nazionale dati.

Benché vi siano delle norme che legittimano l’uso delle risorse automatizzate nel procedimento amministrativo, è comunque importante prestare le giuste cautele in tale attività. Difatti, uno dei problemi più concreti che sorgono dalle scelte meccaniche è che non sempre esse forniscono la motivazione che la legge vuole alla base di ogni scelta e provvedimento amministrativo come previsto dall’art. 3 l. n. 241/1990.

Come detto, infatti, le macchine fondano le proprie scelte su algoritmi che fanno della propria esperienze e dei dati acquisiti la base delle scelte future, senza però fornire alcuna giustificazione in merito al percorso logico e giuridico che ha fondato la decisione finale. Ne consegue, che è anche difficile poter sindacare se un algoritmo ha lavorato bene o male e se la scelta finale sia legittima rispetto al caso concreto. Certamente, si possono verificare quali informazioni e dati sono stati posti alla base dell’elaborazione elettronica, ma è complicato comprendere se la scelta abbia seguito dei criteri razionali oppure sia stata indotta da qualche incontrollabile incrocio di dati. Talvolta, è possibile che l’elaborazione di grandi flussi informativi e dati porti alla creazione di modelli che siano inverosimili e lontani dalla realtà, trasformando quello che può essere un aiuto in un ostacolo difficilmente superabile solo dall’algoritmo. È per tale motivo che ogni robot non può essere lasciato indipendente nel suo agire, ma ogni output prodotto deve essere sempre controllato dall’operatore umano che possa correggere l’errore, utilizzando la propria intelligenza ed esperienza.

Ovviamente, tale difficoltà è direttamente proporzionale alla complessità del procedimento e alla quantità di dati ed informazioni che ogni elaboratore si trova a processare. Mentre è inversamente proporzionale rispetto alla qualità del robot o algoritmo prescelto.

Ebbene proprio su tale ultima scelta si può ravvisare l’importanza del ruolo dell’uomo che deve comunque eseguire tutti i passaggi procedimentali per addivenire alla decisione di utilizzare un certo elaboratore rispetto ad un altro. Ed il percorso fatto in tale scelta dell’elaboratore deve essere pubblico e trasparente, nel senso che gli interessati devono poter controllare la legittimità dell’operato dell’amministratore ed eventualmente sindacarlo davanti al G.A.

Proprio su tali aspetti, infatti, si è concentrata la giurisprudenza, andando ad indagare la correttezza delle scelte amministrative non solo rispetto alle decisioni finali, che di fatto sono prodotte da un algoritmo, ma soprattutto su quelle iniziali che hanno indotto a selezionare un certo robot o sistema elettronico rispetto ad un altro.

Per il momento, la giurisprudenza ha deciso dei casi sull’utilizzo di algoritmi nella sostituzione e supporto delle scelte amministrative, mentre, per poter parlare della giustizia predittiva, nel senso di elaboratori che decidono l’esito delle controversie, si dovrà ancora attendere. (2)

 

RESPONSABILITA' E GIUSTIZIA PREDITTIVA

Uno dei problemi che l’intelligenza artificiale applicata ai procedimenti amministrativi porta con sé, attiene alla responsabilità dei funzionari amministrativi. Come evidenziato anche dalla giurisprudenza richiamata in nota, non tutte le scelte fatte dall’algoritmo possono essere ritenute corrette ed anzi capita che siano errate e cagionino danni al privato o alle risorse pubbliche, dando vita ad una responsabilità erariale (art. 28 Cost.). A ciò, bisogna aggiungere che il risultato fornito dall’algoritmo deve essere ufficializzato in un provvedimento da parte del funzionario o dirigente preposto (solitamente il RUP ai sensi dell’art. 6 l. n. 241/1990). Dunque, laddove l’amministratore umano formalizzi il risultato dell’algoritmo si assumerà la responsabilità di quanto affermato, anche se errato. Questo è il punto cruciale: attualmente, per quanto evoluto o affidabile possa essere un elaboratore elettronico, esso non potrà sostituire il ruolo, la responsabilità ed il potere dell’ente o dell’organo competente nell’adottare un certo provvedimento.

Diversi sono i compiti che spettano all’operatore umano dell’amministrazione pubblica e che non possono in nessun caso essere sostituiti: selezione del programma software di elaborazione; scelta dei dati e delle informazioni da porre in elaborazione; controllo della conformità del trattamento dei dati personali da parte dell’elaboratore (privacy) e sulla loro riservatezza; verifica del risultato finale, eventuale approvazione di quelli validi e rigetto/correzione di quelli sbagliati, e sua formalizzazione.

In questo ambito, si suole parlare di almeno due principi:

- di “non discriminazione algoritmica” nel senso che l’amministrazione pubblica deve garantire una programmazione che non dia luogo ad una conclusione procedimentale erronea, contraddittoria, discriminatoria, illogica o irrazionale;

- di “non esclusività della decisione algoritmica”, nel senso che l’operatore dell’amministrazione può sempre controllare e rivedere i risultati forniti dall’algoritmo, potendo correggerli, smentirli o approvarli.

A questi principi si aggiunge la necessità che l’operatore umano garantisca la ricostruzione e l’accesso al ragionamento elettronico posto alla base dell’algoritmo nel caso concreto

Insomma, per quanto l’elaboratore possa aiutare l’uomo nelle varie fasi procedimentali, bisogna sempre assicurare un’interazione tra attività elettronica ed umana.

Proprio questa interazione, che non esclude il ruolo dell’uomo, fonda la responsabilità amministrativa anche nel caso dell’uso di tecnologie, programmi ed algoritmi che, per quanto si possano rivelare utili, non escludono l’importanza e la centralità del ruolo umano.

Diversamente dall’intelligenza artificiale applicata al procedimento amministrativo, la giustizia predittiva rappresenta invece la possibilità tramite gli algoritmi di prevedere e calcolare in anticipo l’esito di un giudizio. Essa può seguire un modello induttivo o deduttivo. 

In generale, si parla di giustizia predittiva che si basa su un sistema induttivo, quando, dati una serie di precedenti giurisprudenziali che risolvono il caso in un certo modo, allora l’algoritmo prevede l’esito basandosi su detti precedenti. Questo sistema, traendo spunto da dati ed informazioni relativi al passato, sconta il fatto che il diritto è una materia in continua evoluzione sia normativa che giurisprudenziale e potrebbe così non cogliere l’effetto di nuove norme o il bisogno di un nuovo orientamento giurisprudenziale (nel nostro sistema di civil law il giudice non è vincolato al precedente come nella rule of law anglosassone).

Un sistema diverso è quello deduttivo, che si basa su un modello matematico fatto di passaggi e sequenze per giungere ad un determinato risultato al ricorrere di certe variabili (es. art. 12 preleggi c.c.). Il problema di questo sistema è che se l’algoritmo sbaglia uno dei passaggi iniziali, riproduce l’errore in tutti quelli successivi. Per tale motivo, è importante che sia l’uomo ad inserire le variabili corrette e verificare la correttezza di tutti i diversi passaggi. Se vi è interazione tra uomo e macchina, il metodo deduttivo sembrerebbe essere migliore rispetto a quello induttivo.

Tentando di applicare quanto detto, se si intendesse il diritto come una scienza esatta, basata su norme oggettive e su un’interpretazione univoca delle disposizioni legislative, allora ci si potrebbe in astratto immaginare di costruire un sistema che, tramite l’incrocio di dati e informazioni, può calcolare l’esito di una controversia, evitando gli errori.

Tuttavia, nella pratica, il ruolo del giudice, così come degli avvocati, non è quello di applicare meccanicamente la legge, ma c’è una parte di discrezionalità e di conoscenza personale che consente di affermare che concretamente ogni caso è diverso dall’altro e deve, perciò, essere ponderato di volta in volta.

Certo, conoscere già l’esito della propria controversia potrebbe indurre a trovare soluzioni alternative per risolvere determinati rapporti giuridici, ma come detto proprio la peculiarità di ogni caso rende impossibile anticipare l’esito di tutti i giudizi.

Pertanto, allo stato, non può ritenersi esistente una giustizia predittiva nel senso suddetto.

Diversamente, nel processo amministrativo esistono delle modalità meccaniche di interazione che potrebbero essere avvicinate alla giustizia predittiva in senso lato.

Difatti, sono ormai alcuni anni che esiste il processo amministrativo telematico (PAT), in cui attraverso moduli, modelli e format è possibile depositare telematicamente atti e documenti ed ottenere, sempre in maniera automatizzata, il numero di ruolo e vedere indicato nel fascicolo sia l’oggetto della causa che tutto quanto depositato telematicamente. Con la conseguenza che se si sbaglia nell’eseguire ritualmente il deposito, il sistema informatico genererà una risposta automatica che comunica all’utente l’erroneo deposito o il rigetto della richiesta, costituendo di fatto una decisione. In tal caso, si sostituisce l’opera del cancelliere ed in parte del giudice, nel senso che in passato l’irritualità del deposito veniva rilevata direttamente in sede decisionale, mentre oggi è rimessa all’automatismo di un algoritmo.

Quello che, invece, non è ancora possibile, è utilizzare la giustizia predittiva per sostituirsi al sindacato del giudice nella valutazione dell’operato dell’amministrazione, in quanto l’eccesso di potere o il cattivo uso del potere viene valutato attraverso la motivazione dell’atto amministrativo che deve essere apprezzata soggettivamente dal giudice che ne può cogliere i diversi aspetti.

Oltre ai Paesi anglosassoni, in cui già da anni si sperimentano modelli di giustizia predittiva, dando uno sguardo a quello che succede in altri Paesi UE, risulta che in Olanda si sarebbero già sviluppati alcuni sistemi di algoritmi applicati ad alcune cause civili e commerciali, prevedendo un periodo di sperimentazione di alcuni anni, mentre in Francia si è tentato di utilizzare sistemi automatizzati in materia di privacy. Tuttavia, ancora l’utilizzo di sistemi di giustizia predittiva appare lontano, tanto che ha fatto scalpore la notizia che in Cina sarebbe stato realizzato un sistema automatico in grado di elaborare accuse con un’alta percentuale di precisione.

Ad ogni modo, in Italia si stanno già attivando dei progetti di collaborazione per realizzare alcuni sistemi di giustizia predittiva, tra cui si può citare l’Accordo Quadro stipulato tra la Corte Suprema di Cassazione e la Scuola Universitaria Superiore IUSS Pavia il 29 settembre 2021 al fine di attivare una collaborazione strategica, tra la stessa Scuola e il Centro Elettronico di Documentazione (C.E.D.) della Corte, per lo sviluppo di ricerca avanzata nel settore degli strumenti tecnici per la raccolta e l’organizzazione del materiale giuridico digitale. Lo scopo è la valorizzazione del patrimonio conoscitivo della giurisprudenza e della legislazione italiana e europea, “attraverso l’uso degli strumenti di legal analytics (LA) e di intelligenza artificiale (AI), con l’obiettivo di estrarre e rappresentare la conoscenza giuridica, rinvenire correlazioni implicite, individuare tendenze circa gli orientamenti giurisprudenziali e/o legislativi in modo che sia meglio consultabile ed elaborabile in sede di attività giudiziaria e di ricerca scientifica.

Interessante anche il progetto della scuola Sant’Anna di Pisa che sta elaborando, in collaborazione con alcuni tribunali, un programma che annoti l’esito di decisioni in alcune materie, tramite sistema di analisi semantica. Modello che poi verrà esteso a diverse materie del diritto, in modo da allenare l’algoritmo. Altri progetti sono quelli attivati sempre a livello universitario con il CINECA.

Allo stato attuale, nonostante gli importanti progetti citati, si ritiene che in Italia la giustizia predittiva, salvo quanto già detto rispetto alla tematica dei depositi telematici o al PAT, non abbia ancora fatto il proprio ingresso nei tribunali e per il momento l’intelligenza artificiale può solo coadiuvare magistrati e avvocati cancellieri nella loro attività professionale.


SPUNTI DI RIFLESSIONE

Come visto, nell’ambito del procedimento amministrativo, l’uso di tecnologie deve essere coordinato con le norme di legge ed il principio del buon andamento dell'amministrazione.

Quanto finora detto, consente altresì di fare delle riflessioni in ottica di utilizzo dell’intelligenza artificiale anche nella giustizia amministrativa. Da una parte, infatti, è noto che in molti auspicano un sempre maggiore ricorso alla giustizia predittiva, tanto che anche nel PNRR si parla di una progettualità nel senso di rafforzare i programmi di elaborazione dati per creare, in futuro, un sistema che predica l’esito delle controversie. Attualmente, il PNRR fa riferimento all’intelligenza artificiale nel reclutamento del personale amministrativo, nel miglioramento dell’efficacia e della qualità della regolazione amministrativa, digitalizzazione e rafforzamento della capacità amministrativa delle amministrazioni aggiudicatrici, in materia di tasse e controlli tributari, sull’analisi delle scelte degli utenti dell’amministrazione o sull’economia circolare. Quanto alla Giustizia amministrativa, il PNRR pone alcuni obiettivi tramite il programma elettronico: digitalizzazione del cartaceo residuo per completare il fascicolo telematico e progettualità di data lake (luogo o “lago” di archiviazione) per migliorare i processi operativi di Giustizia Ordinaria e Consiglio di Stato.

Non si parla ancora di un modello di giustizia predittiva in senso stretto. Difatti la creazione di tale sistema non è così facile, come tanti sembrano far credere, in quanto sono diverse le criticità sottese all’utilizzo di un elaboratore tecnologico.

Innanzitutto, abbiamo visto che per far crescere un algoritmo è necessario disporre di una grande mole di dati ed informazioni reali attraverso i quali il sistema si “allena” a sbagliare e poi trovare la soluzione corretta. Nella giustizia amministrativa tali dati possono essere reperiti dalle banche dati di giurisprudenza e normative. Ed ecco che qui sorge il primo problema, legato al tema della privacy. Difatti, per realizzare l’algoritmo, i dati e le informazioni dovrebbero essere messi a disposizione di coloro che ci lavorano. Nessun problema quando si tratta di leggi. Più dubbi, invece, quando si tratta di condividere dati relativi a sentenze e, dunque, a persone fisiche o giuridiche “reali”. Questi dati, infatti, verrebbero forniti ad una macchina, con tutti i rischi che ciò può comportare.

Secondariamente, la giustizia amministrativa intesa come apparato non è in grado da sola di realizzare l’algoritmo di cui si parla, ma servono tecnici e specialisti in grado di comprendere l’esigenza e le finalità del sistema da realizzare. Molto spesso, infatti, gli stessi tecnici e specialisti contattati appartengono a società che svolgono la loro attività in settori diversi da quello prettamente giuridico e ciò comporta una difficoltà di interazione tra i due mondi (diritto e tecnologia) che potrebbe far diffidare l’uno dell’altro o, ancor peggio, far ritenere funzionante un sistema in realtà obsoleto che rischia di creare più problemi che vantaggi. Dunque, bisogna capire come individuare le realtà terze rispetto alla giustizia amministrativa o alla p.a. in grado di realizzare questo sistema di giustizia predittiva.

In terzo luogo, uno degli aspetti più delicati è che il reperimento degli specialisti e la realizzazione degli algoritmi ha un prezzo, che difficilmente potrebbe essere sostenuto dalla spesa pubblica se si vuole creare un sistema all’avanguardia. Difatti, da una parte, la giustizia amministrativa ha mezzi limitati rispetto a colossi come Amazon o Apple che possono contare su risorse incalcolabili per sperimentare il sistema più innovativo e funzionante; dall’altra parte, non si può negare che la giustizia amministrativa non è il servizio di difesa o di intelligence, dove in effetti è giustificato investire risorse per garantire la sicurezza del Paese (soprattutto in questo periodo storico). Sotto questo punto di vista, in un'ottica di economicità della spesa pubblica, sarebbe più utile e proficuo utilizzare le risorse pubbliche per investire sull’assunzione di magistrati che contribuiscano effettivamente a redigere sentenze e garantire una giustizia più veloce, rispetto che non spenderle per creare un sistema automatizzato che, ammesso che funzioni, rischia di incidere solo sulla qualità delle decisioni.

Ad ogni modo, si potrebbe anche immaginare di creare dei consorzi tra più pubbliche amministrazioni, al fine di reperire risorse e personale in grado di realizzare le sfide tecnologiche sottese ad un sistema di giustizia predittiva.

Da ultimo, bisogna fare anche un’altra riflessione che parte dalla domanda: ma effettivamente si vuole che l’intelligenza artificiale sostituisca l’uomo nella sua attività anche professionale?

Difatti, tutto il discorso sulla giustizia predittiva parte dalla volontà di velocizzare il lavoro delle pubbliche amministrazioni e della magistratura o avvocatura. Ma non è che forse tale velocizzazione porta con sé anche una superficialità nello svolgimento delle mansioni di ciascuno ed un livellamento nella qualità di ogni professionista e nella capacità di ciascuno di usare il proprio intuito in modo vincente e proficuo? Se ben ci si pensa, quando si sceglie di affidare la decisione di una causa ad un sistema automatizzato, è pacifico che lo stesso non può cogliere le particolarità, anche soggettive, del caso di specie, ma deve affidarsi ad una generalizzazione di dati raccolti e incrociati che depersonalizza ogni controversia. Si rinuncia, insomma, a quella necessità di differenziare ogni caso dall’altro per renderlo “unico” e, dunque, teoricamente diverso nell’esito rispetto ai precedenti su casi similari. Bisogna evitare di diventare supini rispetto ad un algoritmo in grado di controllare più del necessario.

Proprio per questo motivo, ciò di cui la giustizia amministrativa ha bisogno non è di un’intelligenza artificiale nel senso di giustizia predittiva. In tal senso sarebbe addirittura improprio parlare di “intelligenza”, che per sua natura appartiene solo agli umani. Ciò di cui c’è necessità è di un sistema che capisca ciò di cui ognuno (funzionario, avvocato o magistrato) ha bisogno, al fine di consentire un più agevole e veloce utilizzo delle proprie capacità professionali.

Ad esempio una banca dati migliore con più filtri, o con più funzionalità, o con maggiori dati normativi e giurisprudenziali, o che colleghi le informazioni di ricerca per trovare proprio quello che ognuno cerca.

In altre parole, serve un’intelligenza artificiale che sia ottimizzata nella sua funzione servente rispetto agli operatori al fine di contribuire effettivamente affinché ognuno di noi possa svolgere meglio il proprio mestiere.




[1] Si veda in argomento:

V. NERI, Diritto amministrativo e intelligenza artificiale: un amore possibile, in Urbanistica e Appalti n. 5/2021, pag. 581 e ss.

S. DE FELICE Relazione al Convegno su Intelligenza artificiale e “Invalidità e giustiziabilità dinanzi al giudice amministrativo” 6 luglio 2021

D. PONTE, G. PERNICE L’intelligenza artificiale e l’algoritmo a contatto col diritto amministrativo: rischi e speranze Relazione di intervento al corso di formazione per i Magistrati organizzato dall’Ufficio studi, massimario e formazione della Giustizia amministrativa, tenutosi in data 8 giugno 2021.

M. CORRADINO Intelligenza artificiale e pubblica amministrazione: sfide concrete e prospettive future, Trascrizione integrale dell’intervento al corso di formazione per i Magistrati organizzato dall’Ufficio studi, massimario e formazione della Giustizia amminisètrativa10 febbraio 2021. 

[2] Così il Consiglio di Stato, in merito all’affidamento automatizzato di dispositivi medicali: “Il TAR, puntualizzato che “la legge di gara richiede unicamente la presenza di un algoritmo di trattamento (senza altro specificare)” ha definito il concetto di algoritmo, affermando che “con esso ci si richiama, semplicemente, a una sequenza finita di istruzioni, ben definite e non ambigue, così da poter essere eseguite meccanicamente e tali da produrre un determinato risultato (come risolvere un problema oppure eseguire un calcolo e, nel caso di specie, trattare un’aritmia)”. Ha aggiunto, il primo giudice, al fine di meglio circoscrivere il concetto, che “non deve confondersi la nozione di “algoritmo” con quella di “intelligenza artificiale”, riconducibile invece allo studio di “agenti intelligenti”, vale a dire allo studio di sistemi che percepiscono ciò che li circonda e intraprendono azioni che massimizzano la probabilità di ottenere con successo gli obiettivi prefissati….. sono tali, ad esempio, quelli che interagiscono con l’ambiente circostante o con le persone, che apprendono dall’esperienza (machine learning), che elaborano il linguaggio naturale oppure che riconoscono volti e movimenti”.

Definita la nozione di algoritmo, il primo giudice ha così concluso il suo percorso argomentativo: “l’algoritmo di trattamento dell’aritmia non è altro che l’insieme di passaggi (di stimoli creati dal pacemaker secondo istruzioni predefinite) necessari al trattamento del singolo tipo di aritmia. Questo concetto non include necessariamente, invece, come erroneamente ritenuto dalla stazione appaltante, che il dispositivo debba essere in grado di riconoscere in automatico l’esigenza (quindi di diagnosticare il tipo di aritmia) e somministrare in automatico la corretta terapia meccanica (trattamento). In altre parole, il dato testuale della lettera di invito non richiede che l’algoritmo di trattamento, al verificarsi dell’episodio aritmico, sia avviato dal dispositivo medesimo in automatico. Tale caratteristica attiene a una componente ulteriore, non indicata nella legge di gara, vale a dire a un algoritmo di intelligenza artificiale nella diagnosi dell’aritmia e avvio del trattamento. Fondatamente, pertanto, Abbott ha dedotto l’erroneità della valutazione della commissione di gara che – pur in presenza di un algoritmo di trattamento delle aritmie nel proprio dispositivo (vale a dire l’algoritmo NIPS, pacificamente definibile come tale) – ha attribuito soli 7 punti anziché 15 al dispositivo offerto. Infatti, la commissione ha confuso, sovrapponendoli indebitamente, il concetto di algoritmo con quello di avvio automatico del trattamento”. (…)

Il Collegio dissente. Non v’è dubbio che la nozione comune e generale di algoritmo riporti alla mente “semplicemente una sequenza finita di istruzioni, ben definite e non ambigue, così da poter essere eseguite meccanicamente e tali da produrre un determinato risultato” (questa la definizione fornite in prime cure). Nondimeno si osserva che la nozione, quando è applicata a sistemi tecnologici, è ineludibilmente collegata al concetto di automazione ossia a sistemi di azione e controllo idonei a ridurre l’intervento umano. Il grado e la frequenza dell’intervento umano dipendono dalla complessità e dall’accuratezza dell’algoritmo che la macchina è chiamata a processare. Cosa diversa è l’intelligenza artificiale. In questo caso l’algoritmo contempla meccanismi di machine learnig e crea un sistema che non si limita solo ad applicare le regole sofware e i parametri preimpostati (come fa invece l’algoritmo “tradizionale”) ma, al contrario, elabora costantemente nuovi criteri di inferenza tra dati e assume decisioni efficienti sulla base di tali elaborazioni, secondo un processo di apprendimento automatico.

Nel caso di specie, per ottenere la fornitura di un dispositivo con elevato grado di automazione non occorreva che l’amministrazione facesse espresso riferimenti a elementi di intelligenza artificiale, essendo del tutto sufficiente – come ha fatto – anche in considerazione della peculiarità del prodotto (pacemaker dotati, per definizione, di una funzione continuativa di “sensing” del ritmo cardiaco e di regolazione dello stesso) il riferimento allo specifico concetto di algoritmo, ossia ad istruzioni capaci di fornire un efficiente grado di automazione, ulteriore rispetto a quello di base, sia nell’area della prevenzione che del trattamento delle tachiaritmie atriali. I pacemakers moderni e di alta fascia sono infatti dotati di un numero sempre maggiore di parametri programmabili e di algoritmi specifici progettati per ottimizzare la terapia di stimolazione in rapporto alle caratteristiche specifiche del paziente. L’amministrazione ha espresso preferenza per la presenza congiunta di algoritmi di prevenzione e trattamento delle “tachiaritmie atriali”.” (Consiglio di Stato, Sez. III, 25 novembre 2021, n. 7981). 


Ancora, Il Consiglio di Stato in tema di partecipazione a procedimenti basati sugli algoritmi ha affermato che: “Non può quindi ritenersi applicabile in modo indiscriminato… all’attività amministrativa algoritmica, tutta la legge sul procedimento amministrativo, concepita in un’epoca nella quale l’amministrazione non era investita dalla rivoluzione tecnologica…. Il tema dei pericoli connessi allo strumento non è ovviato dalla rigida e meccanica applicazione di tutte le minute regole procedimentali della legge n. 241 del 1990 ( quali ad es. la comunicazione di avvio del procedimento sulla quale si appunta buona parte dell’atto di appello o il responsabile del procedimento che , con tutta evidenza, non può essere una macchina in assenza di disposizioni espresse ), dovendosi invece ritenere che la fondamentale esigenza di tutela posta dall’utilizzazione dello strumento informatico c.d. algoritmico sia la trasparenza nei termini prima evidenziati riconducibili al principio di motivazione e/o giustificazione della decisione” (Consiglio di Stato, sez. VI, 4 febbraio 2020 n. 881).


In altro arresto, il Tar Lombardia, Milano ha ritenuto che: “la nozione di ‘algoritmo’ con quella di “intelligenza artificiale”, è riconducibile invece allo studio di ‘agenti intelligenti’, vale a dire allo studio di sistemi che percepiscono ciò che li circonda e intraprendono azioni che massimizzano la probabilità di ottenere con successo gli obiettivi prefissati” (TAR Lombardia, Milano, Sez. II, 31 marzo 2021 n. 843)


Il Consiglio di Stato, in tema di selezione per docenti alla scuola di secondo grado, ha declinato alcuni principi fondamentali nella valutazione della legittimità dell’uso dell’algoritmo e del suo rapporto con l’attività amministrativa: “Per quanto attiene più strettamente all’oggetto del presente giudizio, devono sottolinearsi gli indiscutibili vantaggi derivanti dalla automazione del processo decisionale dell’amministrazione mediante l’utilizzo di una procedura digitale ed attraverso un “algoritmo” – ovvero di una sequenza ordinata di operazioni di calcolo–che in via informatica sia in grado di valutare e graduare una moltitudine di domande.

L’utilità di tale modalità operativa di gestione dell’interesse pubblico è particolarmente evidente con riferimento a procedure seriali o standardizzate, implicanti l’elaborazione di ingenti quantità di istanze e caratterizzate dall’acquisizione di dati certi ed oggettivamente comprovabili e dall’assenza di ogni apprezzamento discrezionale.(…)

L’utilizzo di procedure “robotizzate” non può, tuttavia, essere motivo di elusione dei princìpi che conformano il nostro ordinamento e che regolano lo svolgersi dell’attività amministrativa.

infatti, la regola tecnica che governa ciascun algoritmo resta pur sempre una regola amministrativa generale, costruita dall’uomo e non dalla macchina, per essere poi (solo) applicata da quest’ultima, anche se ciò avviene in via esclusiva. Questa regola algoritmica, quindi:

- possiede una piena valenza giuridica e amministrativa, anche se viene declinata in forma matematica, e come tale, come si è detto, deve soggiacere ai principi generali dell’attività amministrativa, quali quelli di pubblicità e trasparenza (art. 1 l. 241/90), di ragionevolezza, di proporzionalità, etc.;

- non può lasciare spazi applicativi discrezionali (di cui l’elaboratore elettronico è privo), ma deve prevedere con ragionevolezza una soluzione definita per tutti i casi possibili, anche i più improbabili (e ciò la rende in parte diversa da molte regole amministrative generali); la discrezionalità amministrativa, se senz’altro non può essere demandata al software, è quindi da rintracciarsi al momento dell’elaborazione dello strumento digitale;

- vede sempre la necessità che sia l’amministrazione a compiere un ruolo ex ante di mediazione e composizione di interessi, anche per mezzo di costanti test, aggiornamenti e modalità di perfezionamento dell’algoritmo (soprattutto nel caso di apprendimento progressivo e di deep learning);

- deve contemplare la possibilità che – come è stato autorevolmente affermato – sia il giudice a “dover svolgere, per la prima volta sul piano ‘umano’, valutazioni e accertamenti fatti direttamente in via automatica”, con la conseguenza che la decisione robotizzata “impone al giudice di valutare la correttezza del processo automatizzato in tutte le sue componenti”.

In definitiva, dunque, l’algoritmo, ossia il software, deve essere considerato a tutti gli effetti come un “atto amministrativo informatico”.

Ciò comporta, ad avviso del collegio, un duplice ordine di conseguenze.

In primo luogo, come già messo in luce dalla dottrina più autorevole, il meccanismo attraverso il quale si concretizza la decisione robotizzata (ovvero l’algoritmo) deve essere “conoscibile”, secondo una declinazione rafforzata del principio di trasparenza, che implica anche quello della piena conoscibilità di una regola espressa in un linguaggio differente da quello giuridico.

Tale conoscibilità dell’algoritmo deve essere garantita in tutti gli aspetti: dai suoi autori al procedimento usato per la sua elaborazione, al meccanismo di decisione, comprensivo delle priorità assegnate nella procedura valutativa e decisionale e dei dati selezionati come rilevanti. Ciò al fine di poter verificare che gli esiti del procedimento robotizzato siano conformi alle prescrizioni e alle finalità stabilite dalla legge o dalla stessa amministrazione a monte di tale procedimento e affinché siano chiare – e conseguentemente sindacabili – le modalità e le regole in base alle quali esso è stato impostato. In altri termini, la “caratterizzazione multidisciplinare” dell’algoritmo (costruzione che certo non richiede solo competenze giuridiche, ma tecniche, informatiche, statistiche, amministrative) non esime dalla necessità che la “formula tecnica”, che di fatto rappresenta l’algoritmo, sia corredata da spiegazioni che la traducano nella “regola giuridica” ad essa sottesa e che la rendano leggibile e comprensibile, sia per i cittadini che per il giudice.

In secondo luogo, la regola algoritmica deve essere non solo conoscibile in sé, ma anche soggetta alla piena cognizione, e al pieno sindacato, del giudice amministrativo.

La suddetta esigenza risponde infatti all’irrinunciabile necessità di poter sindacare come il potere sia stato concretamente esercitato, ponendosi in ultima analisi come declinazione diretta del diritto di difesa del cittadino, al quale non può essere precluso di conoscere le modalità (anche se automatizzate) con le quali è stata in concreto assunta una decisione destinata a ripercuotersi sulla sua sfera giuridica.

Solo in questo modo è possibile svolgere, anche in sede giurisdizionale, una valutazione piena della legittimità della decisione; valutazione che, anche se si è al cospetto di una scelta assunta attraverso una procedura informatica, non può che essere effettiva e di portata analoga a quella che il giudice esercita sull’esercizio del potere con modalità tradizionali.

In questo senso, la decisione amministrativa automatizzata impone al giudice di valutare in primo luogo la correttezza del processo informatico in tutte le sue componenti: dalla sua costruzione, all’inserimento dei dati, alla loro validità, alla loro gestione. Da qui, come si è detto, si conferma la necessità di assicurare che quel processo, a livello amministrativo, avvenga in maniera trasparente, attraverso la conoscibilità dei dati immessi e dell’algoritmo medesimo.

In secondo luogo, conseguente al primo, il giudice deve poter sindacare la stessa logicità e ragionevolezza della decisione amministrativa robotizzata, ovvero della “regola” che governa l’algoritmo, di cui si è ampiamente detto.

Alla luce delle riflessioni che precedono, l’appello deve trovare accoglimento, sussistendo nel caso di specie la violazione dei principi di imparzialità, pubblicità e trasparenza, poiché non è dato comprendere per quale ragione le legittime aspettative di soggetti collocati in una determinata posizione in graduatoria siano andate deluse. Infatti, l’impossibilità di comprendere le modalità con le quali, attraverso il citato algoritmo, siano stati assegnati i posti disponibili, costituisce di per sé un vizio tale da inficiare la procedura.” (Consiglio di Stato, Sez. VI, 8 aprile 2019, n. 2270) 


Share by: