Skip to main content

Si parla sempre più spesso di intelligenza artificiale, giustizia predittiva e giurimetria nell’attività giudiziaria e legale, non soltanto nel mondo ma anche in Italia. Tuttavia, le domande che gli operatori del diritto, gli esperti di informatica e i cultori della materia si sono posti sono le seguenti: quali sarebbero i vantaggi e gli svantaggi di un’applicazione tecnologica così avanzata in un campo scientifico suscettibile di così tante interpretazioni. Preliminarmente bisogna dire che a livello europeo l’utilizzo massiccio e diffuso di tali programmi e software è ancora in uno stadio embrionale.

Come sempre da apripista in Europa si trovano i paesi Baltici, quali l’Estonia che ha iniziato un programma di “digital trasformation” già a partire dalla fine degli anni novanta. Seguono ovviamente Paesi come l’Inghilterra e gli U.S.A. che già applicano software di giustizia predittiva alle proprie sentenze, come ad esempio i programmi Compass e PSA.

L’Unione Europea e l’intelligenza artificiale

Bisogna anzitutto partire dal quadro politico europeo. Infatti, il 13 giugno 2023 il Parlamento Europeo ha emanato delle linee guida in vista della futura e prossima legge sulla IA. Tali linee guida hanno fatto seguito alla carta etica redatta dalla Commissione europea sull’efficacia della giustizia in data 4 Dicembre 2018.

L’Unione Europea si prepara, dunque, a introdurre la prima legge al mondo sull’intelligenza artificiale (IA), onde regolamentare il suo complesso utilizzo. Questa iniziativa rientra nella strategia digitale dell’UE e mira a creare un quadro normativo che promuova lo sviluppo responsabile dell’IA, garantendo al contempo la protezione dei cittadini e la tutela dei loro diritti.

La situazione in Italia

In Italia, sono stati numerosi i tentativi sia da parte delle istituzioni, sia di privati, di portare l’intelligenza artificiale dentro le aule dei tribunali. Un primo caso è stato analizzato dal Consiglio di Stato, con sentenza n. 2270/2019 con cui, in motivazione, si fa riferimento per la prima volta al concetto di “Giustizia robotizzata o Cybergiustizia” per indicare le decisioni prese da un algoritmo all’interno della P.A.

Nel caso in esame, il C.d.S ha esaminato l’utilizzo degli algoritmi nelle decisioni amministrative; nella specifica situazione, un algoritmo era stato impiegato per gestire integralmente il processo di assunzione degli insegnanti di scuola secondaria, ma i ricorrenti hanno contestato l’illogicità e irrazionalità dei risultati illogici dell’algoritmo in quanto, a loro dire, lo stesso è stato utilizzato in modo poco trasparente, senza coinvolgere un funzionario amministrativo nell’analisi delle singole situazioni, con conseguente violazione dell’articolo 97 della Costituzione.

Dunque, nonostante, i giudici amministrativi abbiano mostrato un atteggiamento di apertura nei confronti del digitale, soprattutto in riferimento alla propaganda politica del c.d. “digital first”, tali procedure sono ancora a un livello estremamente primitivo, vista anche la mancanza di una normativa generale che disciplini l’intera materia, alla mancanza di formazione del personale amministrativo e alla mancanza di strumenti idonei e/o adeguati.

Gli algoritmi e la necessità di trasparenza

I primi ostacoli da superare, in ambito normativo, sono quelli relativi al diritto di difesa ed al diritto all’equo processo sanciti dall’art. 6 CEDU e dagli artt. 24 e 111 della Costituzione. Infatti, uno dei problemi principali di tali algoritmi è la loro mancanza di trasparenza che impedisce alle parti di comprendere il funzionamento e la logica delle decisioni prese. Ciò potrebbe limitare la capacità di difesa dell’accusato e la possibilità di contestare il risultato algoritmico.

In tale ottica, bisogna garantire il diritto di accesso all’algoritmo in modo da poter valutare la sua accuratezza e poterne contestare il risultato. Tuttavia, l’accesso all’algoritmo può essere ostacolato dalla tutela della proprietà intellettuale e dalla mancanza di trasparenza dei processi decisionali algoritmici.

Le norme più rilevanti ai fini di tutela nell’ambito di decisioni automatizzate sono ricavabili principalmente dalla disciplina europea in materia di trattamento dei dati personali agli artt. 13 e 15 del GDPR, che riconoscono il diritto dell’interessato a conoscere l’esistenza di processi decisionali automatizzati che lo riguardino ed a ricevere informazioni sulla logica utilizzata, all’art. 22 per il principio di non esclusività e il diritto di contestazione della decisione basata unicamente su un processo decisionale automatizzato, nonché il principio di non discriminazione algoritmica sancito dall’art. 71 del GDPR.

L’impiego dell’IA, nel settore della giustizia, dunque, solleva importanti questioni etiche e legali, come la trasparenza, la responsabilità, la privacy dei dati e l’equità nell’uso di algoritmi decisionali. Pertanto, è necessario un approccio ponderato e un dialogo continuo per garantire che l’IA sia utilizzata in modo etico nel contesto della giustizia.