Qualcuno si agita in una lunga fila davanti a un cancello di sicurezza dell'aeroporto. Quella persona è semplicemente nervosa per l'attesa?
O è un passeggero che ha qualcosa di sinistro da nascondere?
Persino gli ufficiali di sicurezza aeroportuali altamente addestrati della Transportation Security Administration (TSA) hanno ancora difficoltà a dire se qualcuno mente o dice la verità, nonostante i miliardi di dollari e gli anni di studio dedicati all'argomento.
Ora, i ricercatori dell'Università di Rochester stanno utilizzando la scienza dei dati e un framework di crowdsourcing online chiamato ADDR (Automated Dyadic Data Recorder) per migliorare la nostra comprensione dell'inganno basato su segnali facciali e verbali.
Sperano anche di ridurre al minimo i casi di profilazione razziale ed etnica che i critici della TSA sostengono quando i passeggeri vengono messi da parte nell'ambito del programma di Screening of Passengers by Observation Techniques (SPOT) dell'agenzia.
"Fondamentalmente, il nostro sistema è come Skype sugli steroidi", afferma Tay Sen, uno studente di dottorato nel laboratorio di Ehsan Hoque, un assistente professore di Informatica. Sen ha collaborato a stretto contatto con Karmul Hasan, un altro dottorando del gruppo, su due lavori in corso Riconoscimento automatico di volti e gesti IEEE e la Atti dell'ACM sulle tecnologie interattive, mobili, indossabili e Ubiquituous. Gli articoli descrivono il framework che il laboratorio ha usato finora per creare il più grande set di dati sull'inganno pubblicamente disponibile e perché alcuni sorrisi sono più ingannevoli di altri.
Il gioco rivela la verità dietro un sorriso
Ecco come funziona ADDR: due persone si iscrivono Amazon Mechanical Turk, il mercato Internet di crowdsourcing che abbina le persone alle attività che i computer non sono attualmente in grado di svolgere. Un video assegna a una persona di essere il descrittore e l'altra a essere l'interrogatore.
Al descrittore viene quindi mostrata un'immagine e gli viene chiesto di memorizzare quanti più dettagli possibile. Il computer ordina al descrittore di mentire o di dire la verità su ciò che ha appena visto. L'interrogatore, che non è stato a conoscenza delle istruzioni per il descrittore, pone quindi al descrittore una serie di domande di base non rilevanti per l'immagine. Questo viene fatto per catturare le differenze comportamentali individuali che potrebbero essere utilizzate per sviluppare un "modello personalizzato". Le domande di routine includono "cosa indossavi ieri?" - provocare uno stato mentale rilevante per il recupero di un ricordo - e "quanto fa 14 per 4?" - provocare uno stato mentale rilevante per la memoria analitica.
"Molte volte le persone tendono a guardare in un certo modo o mostrare una sorta di espressione facciale quando ricordano le cose", ha detto Sen. "E quando ricevono una domanda computazionale, hanno un altro tipo di espressione facciale."
Sono anche domande sulle quali il testimone non avrebbe alcun incentivo a mentire e che forniscono una base per le risposte "normali" di quell'individuo quando risponde onestamente.
E, naturalmente, ci sono domande sull'immagine stessa, a cui il testimone dà una risposta veritiera o disonesta.
L'intero scambio viene registrato su un video separato per successive analisi.
1 milioni di volti
Un vantaggio di questo approccio di crowdsourcing è che consente ai ricercatori di attingere a un pool molto più ampio di partecipanti alla ricerca - e di raccogliere dati molto più rapidamente - di quanto accadrebbe se i partecipanti dovessero essere portati in un laboratorio, dice Hoque. Non avere un set di dati standardizzato e coerente con una verità di base affidabile è stata la principale battuta d'arresto per la ricerca dell'inganno, dice. Con il framework ADDR, i ricercatori hanno raccolto 1.3 milioni di fotogrammi di espressioni facciali da coppie di individui 151 che giocano nel gioco, in poche settimane di sforzo. Più raccolta di dati è in corso in laboratorio.
La scienza dei dati sta permettendo ai ricercatori di analizzare rapidamente tutti quei dati in modi nuovi. Ad esempio, hanno utilizzato un software di analisi delle caratteristiche del viso automatizzato per identificare quali unità di azione venivano utilizzate in un determinato fotogramma e assegnare un peso numerico a ciascuna.
I ricercatori hanno quindi utilizzato una tecnica di clustering non supervisionato, un metodo di apprendimento automatico in grado di trovare automaticamente modelli senza che le fossero assegnate etichette o categorie predeterminate.
Ci ha detto che c'erano fondamentalmente cinque tipi di "facce" legate al sorriso che le persone facevano quando rispondevano alle domande ", ha detto Sen. Quello più frequentemente associato alla menzogna era una versione ad alta intensità del cosiddetto sorriso di Duchenne che coinvolgeva i muscoli della guancia / occhi e della bocca. Ciò è coerente con la teoria di "Duping Delight" secondo cui "quando stai prendendo in giro qualcuno, tendi a divertirti", ha spiegato Sen.
Ancora più sconcertante fu la scoperta che testimoni onesti spesso contraevano gli occhi, ma non sorridevano affatto con la bocca. "Quando siamo tornati indietro e abbiamo riprodotto i video, abbiamo scoperto che ciò accadeva spesso quando le persone cercavano di ricordare cosa c'era in un'immagine", ha detto Sen. "Questo ha dimostrato che si stavano concentrando e cercando di ricordare onestamente."
Mi chiedo solo come le persone possano vivere una vita completamente priva di contenuti, solo sulle illusioni.
Se AI Facial può dire chi sta mentendo, perché non l'hanno provato su Al Gore, Obama, Bush e l'9 settembre molto tempo fa?
La risposta è che l'IA si basa su false premesse, perché anche il risultato fuori rotta deve essere falso