Corte suprema per valutare gli algoritmi segreti di intelligenza artificiale del programma software che hanno mandato l'uomo in prigione

Youtube
Per favore, condividi questa storia!

Quando il giudice supremo John G. Roberts Jr. ha visitato il Rensselaer Polytechnic Institute il mese scorso, gli fu fatta una domanda sorprendente, uno con sfumature di fantascienza.

"Riesci a prevedere un giorno", ha chiesto Shirley Ann Jackson, presidente del college nella parte settentrionale dello stato di New York, "quando le macchine intelligenti, guidate da intelligenze artificiali, aiuteranno nella ricerca dei fatti in tribunale o, ancora più controversa, nel processo decisionale giudiziario?"

La risposta della giustizia principale fu più sorprendente della domanda. "È un giorno che è qui", ha detto, "e sta mettendo a dura prova il modo in cui la magistratura fa le cose".

Potrebbe aver pensato al caso di un uomo del Wisconsin, Eric L. Loomis, che è stato condannato a sei anni di carcere basato in parte sul software proprietario di una società privata. Il Sig. Loomis afferma che il suo diritto a un giusto processo è stato violato dalla considerazione di un giudice di un rapporto generato dall'algoritmo segreto del software, un Sig. Loomis non è stato in grado di ispezionare o contestare.

A marzo, nel segnale che i giudici erano incuriositi dal caso del signor Loomis, hanno chiesto al governo federale per presentare un brief di un amico di corte offrire il proprio punto di vista sull'opportunità del tribunale di presentare ricorso

Il rapporto nel caso di Loomis è stato prodotto da un prodotto chiamato Compas, venduto da Northpointe Inc. Comprendeva una serie di grafici a barre che valutavano il rischio che il signor Loomis commettesse più crimini.

Il rapporto Compas, ha riferito un procuratore al giudice del processo, mostrava "un alto rischio di violenza, un alto rischio di recidiva, un alto rischio preliminare". Il giudice ha concordato, dicendo al signor Loomis che "sei identificato, attraverso la valutazione Compas, come un individuo ad alto rischio per la comunità ".

La Corte suprema del Wisconsin decretato contro il sig. Loomis. Il rapporto ha aggiunto informazioni preziose, ha affermato, e il sig. Loomis avrebbe ottenuto la stessa condanna basandosi esclusivamente sui soliti fattori, compreso il suo crimine - fuggire la polizia in macchina - e la sua storia criminale.

Allo stesso tempo, la corte sembrava a disagio con l'uso di un algoritmo segreto per mandare un uomo in prigione. Giustizia Ann Walsh Bradley, scrivendo per il tribunale, discusso, ad esempio, un rapporto di ProPublica su Compas che concluso che gli imputati neri nella contea di Broward, in Florida, "erano molto più propensi degli imputati bianchi a essere erroneamente giudicati con un tasso più elevato di recidiva".

Il giudice Bradley notò che Northpointe aveva contestato l'analisi. Tuttavia, ha scritto, "questo studio e altri suscitano preoccupazioni su come i fattori di rischio di una valutazione Compas siano correlati alla razza".

Alla fine, però, il giudice Bradley permise ai giudici di condanna di usare Compas. Devono tener conto delle limitazioni dell'algoritmo e della segretezza che lo circonda, ha scritto, ma ha detto che il software potrebbe essere utile "nel fornire al tribunale conduttore quante più informazioni possibili per arrivare a una sentenza individualizzata".

Il giudice Bradley ha reso il ruolo di Compas nella condanna simile alla considerazione della razza nel programma di ammissioni olistiche di un'università selettiva. Potrebbe essere uno dei tanti, ha scritto, ma non quello determinante.

Leggi la storia completa qui ...

Sottoscrivi
Notifica
ospite

1 Commento
il più vecchio
Nuovi Arrivi I più votati
Feedback in linea
Visualizza tutti i commenti
Paul Godden

La serie televisiva 1980 di Blake degli anni '7 aveva una piccola scatola che giudicava Blake ei suoi amici e li inviava alla colonia penale su Giove. Penso che sia nel primo episodio di Blake's 7 dove sono in tribunale.