E se un robot decide che ti odia?
Potrebbe sembrare una domanda sciocca, ma secondo la ricerca, sviluppare pregiudizi verso gli altri non richiede un alto livello di capacità cognitiva e potrebbe essere facilmente esibito da robot e altre macchine artificialmente intelligenti.
Lo studio, condotto da esperti di informatica e psicologia dell'Università di Cardiff e del MIT, ha rivelato che gruppi di macchine autonome potrebbero dimostrare pregiudizio semplicemente identificando, copiando e imparando il comportamento reciproco. I risultati sono stati pubblicati sulla rivista Natura.
I robot sono in grado di formare pregiudizi proprio come gli umani.
In un comunicato stampa, il team di ricerca ha spiegato che, sebbene possa sembrare che la cognizione umana sarebbe necessaria per formare opinioni e stereotipare gli altri, sembra che non sia così. Il pregiudizio non sembra essere un fenomeno specifico per l'uomo.
Alcuni tipi di algoritmi informatici hanno già mostrato pregiudizi come il razzismo e il sessismo che le macchine apprendono da registri pubblici e altri dati generati dall'uomo. In due precedenti istanze di IA che mostravano tali pregiudizi, i chatbot Microsoft Tay e Zo sono stati chiusi dopo che la gente aveva insegnato loro a diffondere osservazioni razziste e sessiste sui social media.
Ciò significa che i robot potrebbero essere tanto odiosi quanto gli esseri umani. E poiché sono migliaia di volte più intelligenti di noi, puoi immaginare il futuro se sviluppassero un pregiudizio contro l'umanità?
Non è richiesto alcun input umano.
La guida degli umani non è necessaria per i robot per imparare a non gradire certe persone.
Tuttavia, questo studio ha dimostrato che l'IA non ha bisogno di provocazione e ispirazione dai troll per far sì che mostri pregiudizi: è in grado di formarli tutti da solo.
Per condurre la ricerca, il team ha creato simulazioni al computer su come gli individui prevenuti possono formare un gruppo e interagire tra loro. Hanno creato un gioco di "dare e avere", in cui ogni robot AI ha preso la decisione di donare o meno a un altro individuo all'interno del proprio gruppo di lavoro o di un altro gruppo. Le decisioni sono state prese in base alla reputazione di ciascun individuo e alla sua strategia di donazione, compresi i loro livelli di pregiudizio nei confronti di individui appartenenti a gruppi esterni.
Man mano che il gioco progrediva e un supercomputer accumulava migliaia di simulazioni, ogni individuo ha iniziato a imparare nuove strategie copiando gli altri all'interno del proprio gruppo o dell'intera popolazione.
Co-autore dello studio Professor Roger Whitaker, del Crime and Security Research Institute dell'Università di Cardiff e della School of Computer Science and Informatics, disse dei risultati:
Eseguendo queste simulazioni migliaia e migliaia di volte, iniziamo a capire come si evolve il pregiudizio e le condizioni che lo promuovono o lo impediscono.
I risultati coinvolgono le persone che aggiornano i loro livelli di pregiudizio copiando preferibilmente quelli che ottengono un guadagno a breve termine più elevato, nel senso che queste decisioni non richiedono necessariamente capacità cognitive avanzate.
È possibile che macchine autonome con la capacità di identificarsi con la discriminazione e di copiare gli altri possano in futuro essere suscettibili ai fenomeni pregiudizievoli che vediamo nella popolazione umana.
Molti degli sviluppi dell'IA che stiamo vedendo riguardano l'autonomia e l'autocontrollo, il che significa che il comportamento dei dispositivi è influenzato anche da altri che li circondano. I veicoli e l'Internet of Things sono due esempi recenti. Il nostro studio fornisce una visione teorica in cui gli agenti simulati invocano periodicamente altri per un qualche tipo di risorsa. (source)
Autonomia e autocontrollo. Non è quello che è successo il franchising Terminator?
Musk ha aggiunto, "Con intelligenza artificiale, stiamo evocando il demone."