I professori avvertono dei pericoli per la tecnologia che prende il processo decisionale dagli umani

Per favore, condividi questa storia!

Non ci vuole un professore per capire intuitivamente che i programmi creati dall'uomo non possono superare i pregiudizi dei loro creatori. I tecnocrati perdono questo punto, credendo che qualsiasi decisione automatizzata sia più efficiente e coerente di un giudizio umano.  Editor TN

In futuro, il tuo futuro potrebbe dipendere da una serie di zeri e quelli accuratamente calcolati.

Man mano che la tecnologia migliora, gli umani diventano meno coinvolti nelle decisioni che influenzano la nostra vita e non è esattamente una buona cosa.

Man mano che l'intelligenza artificiale prende piede, i professori universitari dell'Università del Massachusetts-Amherst hanno sviluppato un programma per testare software per pregiudizi e discriminazioni.

Sì, discriminazione razziale. Ma più di questo. Decisioni sanitarie. Decisioni di prestito. Diamine, anche come Amazon decide le tariffe di invio dei pacchetti.

"Oggi, il software determina chi ottiene un prestito o viene assunto, calcola i punteggi di valutazione del rischio che aiutano a decidere chi va in prigione e chi viene liberato e aiuta a diagnosticare e curare i pazienti medici", secondo agli sviluppatori del programma.

Detto questo, è fondamentale "il software non discrimina i gruppi o gli individui", sostengono i ricercatori, aggiungendo che il loro campo di studio è "sottovalutato" e "sono emersi innumerevoli esempi di software ingiusto".

In modo accademico articolo pubblicato per una prossima ingegneria del software conferenza, gli informatici Alexandra Meliou e Yuriy Brun, che hanno creato il programma insieme allo studente di dottorato Sainyam Galhotra, descrivono in dettaglio la "crescente preoccupazione" della discriminazione del software.

Nel documento, i due professori prevedono l'evolversi e la crescente influenza che il software avrà sulla vita umana in futuro e sostengono che il software svolge attualmente un ruolo fuori misura nella società.

"In futuro, l'importanza di garantire l'equità nel software non farà che aumentare", afferma il documento.

Gli studiosi hanno usato esempi che illustrano il pregiudizio contro i ricchi e gli oppressi.

Uno degli esempi di discriminazione del software forniti da Brun e Meliou è la programmazione utilizzata da Amazon.com per determinare quali aree geografiche riceverebbero la consegna gratuita in giornata. Dopo il lancio del programma lo scorso anno, lo è stato presunta che i quartieri di minoranza hanno ricevuto il vantaggio ad un tasso molto più basso rispetto ai quartieri prevalentemente bianchi.

Gli autori sottolineano anche come il software utilizzato nel settore pubblico possa proiettare pregiudizi, mettendo in luce la tecnologia utilizzata in numerosi stati che calcola i punteggi sulla probabilità che un criminale possa commettere ulteriori crimini. Secondo i ricercatori, è stato scoperto che il software "contrassegna falsamente gli imputati neri come futuri criminali, etichettandoli erroneamente in questo modo a quasi il doppio del tasso degli imputati bianchi".

Leggi la storia completa qui ...

Sottoscrivi
Notifica
ospite

1 Commento
il più vecchio
Nuovi Arrivi I più votati
Feedback in linea
Visualizza tutti i commenti
M11S

Nel nostro sistema economico di capitalismo basato su mercati "liberi" la parte dei mercati è già artificiale al 90% (HFT)