I ricercatori affrontano il contraccolpo dei gruppi LGBTQ sullo studio dell'intelligenza artificiale

Per favore, condividi questa storia!

La protesta più violenta contro l'identificazione dei gay da parte dell'IA è arrivata dalla stessa comunità LGBTQ, sminuendola come "scienza spazzatura" e falsa. Suppongo che alcune delle nazioni in cui è incorporata la legge della Sharia vorrebbero utilizzare questa tecnologia.  Editor TN

Uno studio virale che ha rivelato l'intelligenza artificiale potrebbe indovinare con precisione se una persona è gay o eterosessuale in base al proprio viso sta ricevendo una dura reazione da gruppi di diritti LGBTQ.

Lo studio, condotto da ricercatori dell'Università di Stanford, ha riferito che l'IA ha correttamente distinto gli uomini gay dagli uomini eterosessuali 81 per cento delle volte e 74 per cento delle volte per le donne.

I sostenitori hanno definito la ricerca "scienza spazzatura", sostenendo che non solo la tecnologia potrebbe far fuoriuscire le persone, ma potrebbe mettere a repentaglio la loro vita, specialmente nei regimi brutali che vedono l'omosessualità come un reato punibile.

"In un'epoca in cui i gruppi di minoranza vengono presi di mira, queste scoperte spericolate potrebbero servire da arma per danneggiare sia gli eterosessuali che vengono espulsi in modo impreciso, sia le persone gay e lesbiche che si trovano in situazioni in cui uscire è pericoloso", Jim Halloran, capo di GLAAD Responsabile digitale, ha scritto in una dichiarazione congiunta di GLAAD e The Human Rights Campaign.

Tuttavia, l'autore dello studio non è d'accordo con le critiche, affermando che questo tipo di tecnologia esiste già e lo scopo della sua ricerca era di esporre difetti di sicurezza e sviluppare protezioni in modo che qualcuno non potesse usarlo per cattiva volontà.

"Uno dei miei obblighi come scienziato è che se conosco qualcosa che può potenzialmente proteggere le persone dalla caduta di tali rischi, dovrei pubblicarlo", Michal Kosinksi, coautore dello studio, ha detto al Guardian. Ha aggiunto che screditare la sua ricerca non aiuterebbe a proteggere le persone LGBTQ dalle implicazioni potenzialmente letali che questo tipo di tecnologia ha.

I sostenitori hanno anche chiamato lo studio per non guardare le persone bisessuali e transgender o le persone di colore. I ricercatori hanno raccolto immagini 130,741 di uomini e donne da profili pubblici su un sito di incontri per l'IA da analizzare, tutti caucasici. Mentre Kosinksi e il suo co-autore hanno riconosciuto che la mancanza di diversità nello studio era un problema, non hanno detto quale sito di incontri hanno guardato e hanno affermato di non aver trovato abbastanza persone gay non bianche.

Leggi la storia completa qui ...

Sottoscrivi
Notifica
ospite

0 Commenti
Feedback in linea
Visualizza tutti i commenti