Gli psicopatici hanno molto da insegnarci sull'intelligenza artificiale

Per favore, condividi questa storia!
L'intelligenza artificiale è spesso programmata per imparare a manipolare le nostre emozioni e per misurare il successo quando ci conformiamo. Questo tratto psicopatico è l'apice dell'ingegneria sociale e gli esseri umani hanno pochissima consapevolezza che ciò accada. ⁃ TN Editor

Cosa succede quando le macchine imparano a manipolarci fingendo le nostre emozioni? A giudicare dalla velocità con cui i ricercatori stanno sviluppando agenti di intelligenza artificiale simili all'uomo, stiamo per scoprirlo.

I ricercatori di tutto il mondo stanno cercando di creare un'intelligenza artificiale più umana. Per definizione, stanno sviluppando psicopatici artificiali. Questa non è necessariamente una brutta cosa: non c'è nulla di intrinsecamente sbagliato nell'essere uno psicopatico, e tutti gli agenti dell'IA sono psicopatici artificiali semplicemente perché mancano dell'intera gamma di emozioni neurotipiche umane.

Ma la sovrapposizione tra comportamento psicopatico e comportamento dell'agente di IA è innegabile. Dovremmo esaminarlo prima che sia troppo tardi.

Il dilemma del prigioniero

Un trio di ricercatori dell'Università di Waterloo di recente condotto un esperimento per determinare in che modo le manifestazioni di emozione possono aiutare l'IA a manipolare gli esseri umani in cooperazione. Lo studio ha utilizzato un classico esperimento di teoria dei giochi chiamato "Il dilemma del prigioniero", che mostra perché le persone che trarrebbero beneficio dalla cooperazione spesso non lo fanno.

Ci sono molte variazioni nel gioco, ma è sostanzialmente questo: ci sono due prigionieri isolati l'uno dall'altro che vengono interrogati dalla polizia per un crimine che hanno commesso insieme. Se uno di loro fa un boccino e l'altro no, il non traditore ha tre anni e il boccino cammina. Funziona in entrambi i modi. Se entrambi si spengono, entrambi ottengono due anni. Se nessuno dei due fa un boccino, ottengono ciascuno solo un anno con una carica minore.

Lo studio di Waterloo ha sostituito uno dei "prigionieri" umani con un avatar AI e ha permesso loro di interpretare le reciproche emozioni. E invece delle pene detentive usavano l'oro, quindi il punto era ottenere il punteggio più alto possibile, al contrario del più basso. Come abbiamo detto, ci sono variazioni nel gioco. Ma, cosa ancora più importante, hanno scoperto che gli esseri umani sono stati più facilmente manipolati in risultati cooperativi migliorando il livello di IA di comportamento simile all'uomo. Secondo la ricerca del team Waterloo carta:

Mentre i ricercatori possono migliorare con successo la percezione dei tratti dell'unicità umana rendendo gli agenti più intelligenti, le emozioni sono fondamentali per la percezione dei tratti della natura umana. Questo miglioramento ha anche influenzato positivamente la cooperazione degli utenti con l'agente e il loro divertimento.

Nel frattempo, un altro team di ricercatori ha recentemente pubblicato un esperimento diverso coinvolgendo il problema del dilemma del prigioniero. Gli scienziati della Victoria University di Wellington e dell'Università di Southampton hanno suddiviso i volontari degli studenti 190 in quattro gruppi composti da diversi rapporti di studenti neurotipici e da quelli che mostrano tratti di psicopatia. I ricercatori hanno scoperto che avere psicopatici in una dinamica di gruppo era coerente con una minore cooperazione.

Per essere chiari, lo studio Victory / Southhampton non ha utilizzato le persone considerate psicopatici completi, ma gli studenti che hanno mostrato un numero maggiore di tratti psicopatici rispetto agli altri. Lo scopo di questo studio era di determinare se introdurre persone che mostravano anche una certa psicopatia avrebbe cambiato le dinamiche di gruppo. Hanno scoperto che ha fatto:

I nostri risultati mostrano che le persone con livelli psicopatici più alti influenzano le dinamiche di gruppo. Abbiamo riscontrato una significativa divergenza di cooperazione in quei gruppi con un'alta densità di partecipanti psicopatici elevati rispetto ai gruppi a densità zero.

The Extortioner amichevole

L'introduzione nella società di agenti emotivi a metà ha il potenziale per essere da incubo. Ancora un altro recente studio dell'esperimento sul dilemma del prigioniero, questo della Max Planck Society, indica che la migliore strategia per il gioco è quella di diventare un "estensore amichevole". In sostanza, afferma che quando bonus e incentivi sono in linea, il gioco migliore è creare l'illusione della cooperazione manipolando l'altro giocatore nella cooperazione, non importa quante volte non lo fai.

Leggi la storia completa qui ...

Sottoscrivi
Notifica
ospite

1 Commento
il più vecchio
Nuovi Arrivi I più votati
Feedback in linea
Visualizza tutti i commenti
whisperingsage

Bene, ha preso una strada rotonda, ma alla fine ho capito che l'autore sta dicendo che l'IA è sociopatica e può rovinare la nostra società alla grande.