La polizia negli Stati Uniti sta addestrando gli IA per la previsione del crimine su dati falsi

Wikimedia Commons
Per favore, condividi questa storia!
L'intero sistema di giustizia penale in tutta l'America è stato corrotto dal palese uso improprio della tecnologia AI. La polizia non è ignorante quando cerca i risultati che vuole invece dei fatti oggettivi di una questione. Questo è paragonabile alla falsa comunità scientifica del riscaldamento globale. ⁃ TN Editor

A maggio di 2010, spinto da una serie di scandali di alto profilo, il sindaco di New Orleans ha chiesto al Dipartimento di Giustizia degli Stati Uniti di indagare sul dipartimento di polizia della città (NOPD). Dieci mesi dopo, il DOJ ha offerto il suo analisi delle vesciche: durante il periodo della sua revisione da 2005 in poi, il NOPD aveva ripetutamente violato la legge costituzionale e federale.

Ha usato una forza eccessiva e sproporzionatamente contro i residenti neri; minoranze razziali mirate, madrelingua inglese e individui LGBTQ; e non ha affrontato la violenza contro le donne. I problemi, disse All'epoca il vice procuratore generale Thomas Perez era "serio, di vasta portata, sistemico e profondamente radicato nella cultura del dipartimento".

Nonostante i risultati inquietanti, la città entrò a partenariato segreto solo un anno dopo con la società di data mining Palantir per implementare un sistema di polizia predittiva. Il sistema ha utilizzato dati storici, compresi i registri degli arresti e i rapporti di polizia elettronica, per prevedere il crimine e contribuire a definire le strategie di sicurezza pubblica, secondo azienda e governo della città materiali. Tali materiali non hanno mai suggerito alcuno sforzo per ripulire o modificare i dati per far fronte alle violazioni rivelate dal DOJ. Con ogni probabilità, i dati danneggiati sono stati immessi direttamente nel sistema, rafforzando le pratiche discriminatorie del dipartimento.

Gli algoritmi di polizia predittiva stanno diventando una pratica comune nelle città degli Stati Uniti. Sebbene la mancanza di trasparenza renda difficile stabilire con esattezza le statistiche, PredPol, un fornitore leader, vanta che aiuta a "proteggere" 1 negli americani 33. Il software viene spesso propagandato come un modo per aiutare i dipartimenti di polizia leggermente allungati a prendere decisioni più efficienti e basate sui dati.

Ma una nuova ricerca suggerisce che non è solo New Orleans che ha addestrato questi sistemi con "dati sporchi" carta rilasciato oggi, per essere pubblicato sulla NYU Law Review, i ricercatori dell'AI Now Institute, un centro di ricerca che studia l'impatto sociale dell'intelligenza artificiale, hanno scoperto che il problema è pervasivo tra le giurisdizioni studiate. Ciò ha implicazioni significative per l'efficacia della polizia predittiva e di altri algoritmi utilizzati nel sistema di giustizia penale.

"Il tuo sistema è valido solo come i dati che usi per addestrarlo", afferma Kate Crawford, cofondatrice e condirettrice di AI Now e autrice dello studio. “Se i dati stessi non sono corretti, si farà in modo che più risorse della polizia si concentrino sulle stesse comunità sovra-sorvegliate e spesso prese di mira a livello razziale. Quindi quello che hai fatto è in realtà un tipo di lavaggio tecnologico in cui le persone che usano questi sistemi presumono che siano in qualche modo più neutre o oggettive, ma in realtà hanno radicato una forma di incostituzionalità o illegalità. "

I ricercatori hanno esaminato le giurisdizioni 13, concentrandosi su quelle che hanno utilizzato sistemi di polizia predittiva e sono state oggetto di un'indagine commissionata dal governo. Quest'ultimo requisito garantiva che le pratiche di polizia disponessero di documentazione legalmente verificabile. In nove giurisdizioni, hanno trovato prove evidenti che i sistemi erano stati addestrati su "dati sporchi".

Il problema non erano solo i dati distorti dal targeting sproporzionato delle minoranze, come a New Orleans. In alcuni casi, i dipartimenti di polizia avevano una cultura di manipolazione o falsificazione intenzionale dei dati sotto un'intensa pressione politica per ridurre i tassi ufficiali di criminalità. A New York, ad esempio, al fine di sgonfiare artificialmente le statistiche sulla criminalità, i comandanti del distretto chiedevano regolarmente alle vittime sulle scene del crimine di non sporgere denuncia. Alcuni poliziotti hanno persino piantato droghe su persone innocenti per soddisfare le loro quote di arresti. Nei moderni sistemi di polizia predittiva, che si basano sull'apprendimento automatico per prevedere il crimine, quei punti di dati corrotti diventano predittori legittimi.

Leggi la storia completa qui ...

Sottoscrivi
Notifica
ospite

2 Commenti
il più vecchio
Nuovi Arrivi I più votati
Feedback in linea
Visualizza tutti i commenti
Tom S

GIGO! Immondizia in; Immondizia fuori!