Giustizia a portata di click

Giustizia a portata di click

Sistemi algoritmici ed etica

Sotto i riflettori finisce ancora una volta l’uso dell’intelligenza artificiale nel sistema giustizia.

Si fa sempre più parlare di “giustizia predittiva”, di una giustizia legata a calcoli matematici operati in base a precisi algoritmi, che rivelerebbero in tempo reale le aspettative di successo o fallimento di un’eventuale azione giudiziaria, nonché gli effettivi risvolti pratici e giuridici del caso di specie.
Una nuova giustizia a portata di click, insomma.

La sola idea di affidare la tutela dei diritti umani a fredde previsioni aritmetiche – che non possono, per ragioni di pura logica materiale, tener conto delle diverse sfumature che colorano le questioni controverse – spaventa.

Si tratta delle c.dd. tecniche di machine learning, grazie alle quali i risultati sono ottenuti con sistemi di programmazione che non comportano alcuna particolare capacità cognitiva: la macchina, si limita a un semplice computo di dati, senza però avere la capacità di contestualizzarli o di collocarli nello spazio e nel tempo, con l’unico obiettivo di fornire un risultato migliore rispetto a quello ottenibile dall’essere umano.
Questo tipo di indagine non riceve una puntuale e specifica disciplina in Italia, che, nel desiderio di porre rimedio a una giustizia lenta e macchinosa, rischia di dimenticare le principali garanzie poste a tutela del reo, prima come persona e solo dopo come soggetto processuale.

Di più, il sistema dell’intelligenza artificiale si è insinuato anche negli spazi dei sistemi penitenziari.
Telecamere in grado da sole di individuare ogni elemento utile o sospetto nei reclusi, ascolto delle chiamate con elaborazione delle parole chiave per evidenziare fatti illeciti, “guardiani robotici nei padiglioni”; un meccanismo di controllo, nei fatti, incontrollato.
Non si negano i potenziali vantaggi in termini di miglioramento della sicurezza e del controllo all’interno degli istituti penitenziari, ma vi è anche il rischio di una eccessiva invasione della privacy dei detenuti e la possibilità di veri e propri abusi.
Nulla è in grado, ad esempio, di scongiurare il rischio che l’elaborazione e l’analisi dei dati raccolti conducano a decisioni discriminatorie o pregiudizievoli nei confronti dei detenuti, a causa di algoritmi che potrebbero essere intrinsecamente sbagliati o contenere pregiudizi incorporati.

È un fatto anche di etica.
Non a caso, già il 3 dicembre 2018, nel corso della sua trentunesima Riunione plenaria a Strasburgo, la CEPEJ (European Commission for the Efficiency of Justice) ha prodotto la «Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi».

L’intelligenza artificiale non va demonizzata.
Può risultare preziosa al fine di prevenire situazioni di pericolo, a tutela della sicurezza della persona. Si pensi a quei congegni, di facile utilizzo, che consentono tempestivi interventi a soccorso di persone che si trovano in un imminente stato di pericolo e non possono ricorre ad altri strumenti di comunicazione.

L’intelligenza artificiale che merita di essere sviluppata è quella realmente al servizio della tutela della persona, non quella che serve soltanto per aggirare un ben più utile impegno organizzativo nella soluzione di problemi comunque risolvibili, al prezzo dei diritti fondamentali di alcuni.



<p style="color:#fff; font-weight:normal; line-height:12px; margin-bottom:10px;">Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso consulta la nostra Privacy Policy. Chiudendo questo banner, scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all’uso dei cookie.</p> Leggi la nostra cookie policy

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi