Potresti pensare che un computer sarebbe un giudice imparziale ed equo, ma un nuovo studio rileva che potresti fare meglio a lasciare il tuo destino nelle mani degli umani. I ricercatori del MIT scoprono che l'intelligenza artificiale (AI) tende a esprimere giudizi più severi e severi rispetto agli umani quando si tratta di persone che violano le regole. In poche parole, l'intelligenza artificiale non è disposta a lasciare facilmente le persone fuori dai guai quando infrangono la legge!
I ricercatori hanno espresso la preoccupazione che l'IA possa imporre punizioni eccessivamente severe, a seconda degli scienziati dell'informazione con cui la programmano. Quando l'IA è programmata rigorosamente sulla base di regole, prive di qualsiasi sfumatura umana, tende a rispondere in modo duro rispetto a quando è programmata sulla base di risposte umane.
Questo studio, condotto da un team del Massachusetts Institute of Technology, ha esaminato come l'IA interpreterebbe le violazioni percepite di un determinato codice. Hanno scoperto che i dati più efficaci con cui programmare l'IA sono i dati normativi, in cui gli umani hanno determinato se è stata violata una norma specifica. Tuttavia, molti modelli sono erroneamente programmati con dati descrittivi, in cui le persone etichettano gli attributi fattuali di una situazione e l'intelligenza artificiale determina se un codice è stato violato.
Nello studio, il team ha raccolto immagini di cani che potrebbero potenzialmente violare una regola dell'appartamento che vieta le razze aggressive dall'edificio. Ai gruppi è stato quindi chiesto di fornire risposte normative e descrittive.
Il team descrittivo non è stato informato della politica generale sui cani ed è stato chiesto di identificare se tre elementi fattuali, come l'aggressività del cane, fossero presenti nell'immagine o nel testo. Le loro risposte hanno contribuito a formare giudizi. Se un utente affermava che la foto raffigurava un cane aggressivo, la norma veniva considerata violata. D'altra parte, il gruppo normativo è stato informato sulle regole sui cani aggressivi ed è stato chiesto di determinare se ogni immagine violava la regola e, in caso affermativo, perché.
I partecipanti avevano il 20% di probabilità in più di identificare una violazione del codice utilizzando il metodo descrittivo rispetto a quello normativo. Se i dati descrittivi sul comportamento del cane fossero stati usati per programmare un modello di intelligenza artificiale, sarebbe più probabile emettere sanzioni severe.
Aumentando questi imprecisioni rispetto agli scenari del mondo reale potrebbe avere implicazioni sostanziali. Ad esempio, se viene utilizzato un modello descrittivo per prevedere se una persona può farlo commettere lo stesso reato più di una volta, può imporre giudizi più severi di un essere umano e comportare importi di cauzione più elevati o condanne penali più lunghe. Di conseguenza, gli esperti hanno sostenuto una maggiore trasparenza dei dati, sostenendo che la comprensione del modo in cui i dati vengono raccolti può aiutare a determinarne i potenziali usi.
“La maggior parte dei ricercatori di intelligenza artificiale/apprendimento automatico presume che i giudizi umani nei dati e nelle etichette siano distorti. Ma i nostri risultati indicano un problema più preoccupante: questi modelli non riproducono nemmeno giudizi umani già distorti perché i dati su cui vengono addestrati sono imperfetti ", afferma Marzyeh Ghassemi, assistente professore e capo del gruppo Healthy ML in the Computer Laboratorio di Scienze e Intelligenza Artificiale (CSAIL), in a rilascio universitario.
“La soluzione è riconoscerlo se vogliamo riprodurci giudizio umano, dovremmo utilizzare solo i dati raccolti in tale contesto. Altrimenti, ci ritroveremo con sistemi che impongono moderazioni estremamente dure, molto più severe di quelle che imporrebbero gli umani. Gli umani vedrebbero sfumature o farebbero distinzioni, mentre questi modelli no", spiega ulteriormente Ghassemi.
Nello studio, pubblicato in Anticipi Scienza, il team ha testato tre set di dati aggiuntivi. I risultati variavano, da un aumento dell'20% della probabilità di identificare una violazione delle regole utilizzando risposte descrittive per una violazione del codice di abbigliamento, fino a un aumento del XNUMX% per le immagini di cani aggressivi.
“Forse il modo in cui le persone pensano alle violazioni delle regole è diverso da come pensano ai dati descrittivi. In generale, le decisioni normative tendono ad essere più indulgenti", afferma l'autore principale Aparna Balagopalan. “I dati contano davvero. È fondamentale allineare il contesto di addestramento con il contesto di implementazione durante l'addestramento dei modelli per rilevare le violazioni delle regole".
Il piano futuro del team è quello di indagare sull'impatto della partecipazione di professionisti, come avvocati e medici, all'inserimento dei dati.
[…] Per saperne di più: Infrangere le regole? L'intelligenza artificiale non ti mostrerà pietà […]
[…] Per saperne di più: Infrangere le regole? L'intelligenza artificiale non ti mostrerà pietà […]
[…] Rompere le regole? L'intelligenza artificiale non ti mostrerà pietà […]
[…] Rompere le regole? L'intelligenza artificiale non ti mostrerà pietà […]