Algoritmo di riconoscimento facciale causato arresto errato

Per favore, condividi questa storia!
Questa storia rivela perché Amazon, IBM e Microsoft si sono ritirati dal business del riconoscimento facciale per deviare alcune critiche sui pregiudizi razziali. In questo caso, l'algoritmo ha inchiodato l'uomo di colore sbagliato per un crimine che non ha commesso. ⁃ TN Editor

Un giovedì pomeriggio di gennaio, Robert Julian-Borchak Williams era nel suo ufficio in una società di forniture automobilistiche quando ha ricevuto una chiamata dal dipartimento di polizia di Detroit che gli diceva di venire alla stazione per essere arrestato. All'inizio pensò che fosse uno scherzo.

Un'ora dopo, quando entrò nel suo vialetto in una tranquilla suddivisione a Farmington Hills, Michigan, un'auto della polizia si fermò dietro, bloccandolo. Due agenti scesero e ammanettarono il signor Williams sul prato davanti al suo moglie e due giovani figlie, che erano sconvolte. La polizia non ha voluto dire perché è stato arrestato, mostrandogli solo un pezzo di carta con la sua foto e le parole "mandato di criminalità" e "furto".

Sua moglie, Melissa, ha chiesto dove fosse stato portato. "Cercalo su Google", ricorda un agente che rispondeva.

La polizia ha portato il signor Williams in un centro di detenzione. Ha preso la sua foto segnaletica, le impronte digitali e il DNA ed è stato trattenuto durante la notte. Venerdì, verso mezzogiorno, due detective lo hanno portato in una stanza degli interrogatori e hanno messo tre fogli di carta sul tavolo, a faccia in giù.

"Quando è stata l'ultima volta che sei andato in un negozio Shinola?" ha chiesto uno degli investigatori, nel ricordo del signor Williams. Shinola è una boutique di lusso che vende orologi, biciclette e articoli in pelle nel quartiere alla moda di Midtown a Detroit. Il signor Williams ha detto che lui e sua moglie avevano controllato quando il negozio ha aperto per la prima volta nel 2014.

Il detective voltò il primo pezzo di carta. Era un'immagine fissa di un video di sorveglianza, che mostrava un uomo massiccio, vestito di nero e con un berretto rosso dei St. Louis Cardinals, in piedi davanti a un display di orologi. Cinque segnatempo, per un valore di 3,800 dollari, sono stati rubati.

"Sei tu?" ha chiesto il detective.

Il secondo pezzo di carta era un primo piano. La foto era sfocata, ma chiaramente non era il signor Williams. Prese l'immagine e se la tenne vicino al viso.

"No, questo non sono io", ha detto il signor Williams. "Pensi che tutti gli uomini neri si assomiglino?"

Il signor Williams sapeva di non aver commesso il crimine in questione. Quello che non poteva sapere, mentre sedeva nella stanza degli interrogatori, è che il suo caso potrebbe essere il primo resoconto noto di un americano arrestato ingiustamente sulla base di una corrispondenza difettosa da un algoritmo di riconoscimento facciale, secondo gli esperti di tecnologia e legge. .

Un sistema difettoso

È in corso un dibattito a livello nazionale razzismo nelle forze dell'ordine. In tutto il paese, milioni di persone stanno protestando non solo per le azioni dei singoli ufficiali, ma anche per i sistemi utilizzati per sorvegliare le comunità e identificare le persone da incriminare.

I sistemi di riconoscimento facciale sono stati utilizzati dalle forze di polizia per più di due decenni. Studi recenti di MIT e  Istituto Nazionale di Standard e Tecnologie, o NIST, hanno scoperto che mentre la tecnologia funziona relativamente bene sugli uomini bianchi, i risultati sono meno accurati per altri dati demografici, in parte a causa della mancanza di diversità nelle immagini utilizzate per sviluppare i database sottostanti.

L'anno scorso, durante un'audizione pubblica sull'uso di riconoscimento facciale a Detroit, un vice capo della polizia era tra coloro che hanno sollevato preoccupazioni. "Sulla questione dei falsi positivi - questo è assolutamente reale ed è ben documentato", ha detto James White. "Quindi questo mi riguarda come un maschio afroamericano."

Questo mese, AmazonMicrosoft e IBM annunciato che si sarebbero fermati o pausa le loro offerte di riconoscimento facciale per le forze dell'ordine. I gesti sono stati in gran parte simbolici, dato che le aziende non sono grandi attori del settore. La tecnologia utilizzata dai dipartimenti di polizia è fornita da aziende che non sono nomi familiari, come Vigilant Solutions, Cognitec, NEC, Rank One Computing e Clearview AI.

Leggi la storia completa qui ...

Sottoscrivi
Notifica
ospite

2 Commenti
il più vecchio
Nuovi Arrivi I più votati
Feedback in linea
Visualizza tutti i commenti
DawnieR

Dimentica le persone di colore …… Suppongo che questo non funzionerebbe MAI neanche per gli asiatici !!

dP_Ted

Doveva succedere. Ciò che mi colpisce è che la persona scelta dal computer a volte sembra un po 'diversa dalla persona reale, ma è quello che dice il computer che va. smh