Droni economici, AI, rendono Ubiquitous di sorveglianza dei droni

Per favore, condividi questa storia!
L'intelligenza artificiale come servizio applicato ai droni economici significa che qualsiasi agenzia delle forze dell'ordine può ora avere la propria flotta di droni per spiare i cittadini. Naturalmente, di tanto in tanto cattureranno i trasgressori, ma i diritti e la privacy dei civili innocenti saranno calpestati. ⁃ TN Editor

Economico tecnologia di consumo ha reso la sorveglianza economica e mercificata il software AI l'ha resa automatica.

Queste due tendenze si sono fuse questa settimana, quando il produttore di droni DJI collaboratoGiugno 5 con Axon, la società che produce armi Taser e telecamere per corpi di polizia, per vendere droni ai dipartimenti di polizia locali negli Stati Uniti. Ora, non solo la polizia locale ha accesso ai droni, ma i filmati di quelle telecamere volanti saranno automaticamente analizzati da sistemi di intelligenza artificiale non divulgati al pubblico.

Il filmato verrà caricato o trasmesso in streaming sul cloud digitale di Axon per le telecamere della polizia, come il telecamere del corpo attualmente vende, dove può essere analizzato dall'intelligenza artificiale di Axon e utilizzato per qualsiasi cosa, dal monitoraggio della folla alla ricerca e al salvataggio, la società scrive sul suo sito web.

Sembra vago, ma AI ricerca pubblicata due giorni prima da accademici indiani e britannici mostra esattamente come si potrebbe usare un tale sistema di droni. L'articolo, intitolato "Eye in the Sky", descrive in dettaglio come le riprese dei droni potrebbero essere utilizzate per rilevare "individui violenti" in tempo reale.

Per addestrare l'IA, i ricercatori hanno pilotato un drone per scattare immagini 2,000 di persone che fingevano di farsi del male. Ma poiché i ricercatori non hanno utilizzato dati reali e messo in scena con cura le informazioni che l'IA ha analizzato per apprendere la differenza tra violenza e movimento umano normale, non c'è garanzia che funzionerebbe bene nel mondo reale, David Sumpter, autore di In inferiorità numerica: esplorare gli algoritmi che controllano le nostre vitescritto su Medium.

"Quello che l'algoritmo ha fatto è classificare gli individui con le mani o le gambe in aria come violenti", ha scritto Sumpter. Altri, come il falco dell'etica di Google Meredith Whittaker, tweeted che la ricerca era difettosa e che "l'IA sta affrontando una crescente crisi etica".

Altri ricercatori, tra cui Google (pdf) e Facebook, hanno anche svolto ricerche approfondite nel tentativo di risolvere lo stesso problema di tracciare il modo in cui le persone si muovono e ciò che quei movimenti potrebbero indicare che stanno facendo.

Ma i ricercatori di "Eye in the Sky" stanno cercando di associare determinate pose con l'intento. I ricercatori non discutono di falsi positivi per azioni che potrebbero essere interpretate erroneamente come violenza, come la lotta al gioco, il lancio di una mosca dalla spalla di qualcuno o l'afferrare di qualcuno che sta cadendo.

Indipendentemente dalle domande sulla legittimità dell'IA, The Verge rapporti che i ricercatori hanno ottenuto l'approvazione per testare la tecnologia durante due festival in India ad ottobre.

Con $ 160 per a Drone pappagallo come il team di "Eye in the Sky" utilizzato, e pochi centesimi per la piattaforma AI cloud di Amazon, chiunque con un background di codifica avrebbe potuto creare un sistema simile. Anche adolescenza e coltivatori di cetrioli stanno costruendo i propri sistemi di intelligenza artificiale.

Leggi la storia completa qui ...

Sottoscrivi
Notifica
ospite

1 Commento
il più vecchio
Nuovi Arrivi I più votati
Feedback in linea
Visualizza tutti i commenti