L'intelligenza artificiale con lettura del viso dice alla polizia quando stai mentendo

rilevazione della bugia
Per favore, condividi questa storia!
Le forze dell'ordine hanno poca moderazione nell'uso della tecnologia che è nota per avere seri problemi di precisione, come nel caso dell'IA che esegue analisi predittive pre-crimine, rilevamento di bugie e riconoscimento facciale. ⁃ Editor TN

La ricerca dello psicologo americano Paul Ekman sulle espressioni facciali ha generato una carriera completamente nuova di rilevatori di bugie umane più di quattro decenni fa. L'intelligenza artificiale potrebbe presto svolgere il proprio lavoro.

Mentre gli Stati Uniti hanno aperto la strada all'uso di tecnologie automatizzate per rivelare le emozioni e le reazioni nascoste dei sospetti, la tecnica è ancora nascente e un intero stormo di iniziative imprenditoriali sta lavorando per renderlo più efficiente e meno soggetto a falsi segnali.

Facesoft, una start-up britannica, afferma di aver creato un database di 300 milioni di immagini di volti, alcune delle quali sono state create da un sistema di intelligenza artificiale modellato sul cervello umano, secondo il Times. Il sistema costruito dall'azienda è in grado di identificare emozioni come rabbia, paura e sorpresa sulla base di microespressioni che sono spesso invisibili all'osservatore casuale.

"Se qualcuno sorride in modo sincero, la sua bocca può sorridere, ma il sorriso non raggiunge i suoi occhi - le microespressioni sono più sottili di così e più veloci", cofondatore e amministratore delegato Allan Ponniah, che è anche un chirurgo plastico e ricostruttivo a Londra, ha detto al giornale.

Facesoft ha chiesto alla polizia di Mumbai di utilizzare il sistema per monitorare le folle per rilevare le dinamiche della folla in evoluzione, ha affermato Ponniah. Ha anche propagandato il suo prodotto alle forze di polizia nel Regno Unito

L'uso di algoritmi di intelligenza artificiale tra la polizia ha suscitato recentemente polemiche. Un gruppo di ricerca i cui membri includono Facebook Inc., Microsoft Corp., Alphabet Inc., Amazon.com Inc. e Apple Inc. hanno pubblicato un rapporto in aprile affermando che gli attuali algoritmi volti ad aiutare la polizia a determinare chi dovrebbe ricevere cauzione, libertà vigilata o libertà vigilata, e che aiutano i giudici a prendere decisioni in merito alla condanna, sono potenzialmente di parte, opache e potrebbero anche non funzionare.

Leggi la storia completa qui ...

Sottoscrivi
Notifica
ospite

1 Commento
il più vecchio
Nuovi Arrivi I più votati
Feedback in linea
Visualizza tutti i commenti