Gli ingegneri stanno usando la psicologia cognitiva per capire come pensano gli IA e renderli più responsabili.
Gli ingegneri dell'intelligenza artificiale hanno un problema: loro spesso non lo so cosa pensano le loro creazioni.
Man mano che l'intelligenza artificiale cresce in complessità e prevalenza, diventa anche più potente. L'IA ha già preso in considerazione le decisioni chi va in prigione e chi riceve un prestito. Ci sono suggerimenti che l'IA dovrebbe determinare chi ha le migliori possibilità di vivere quando un'auto a guida autonoma deve affrontare un incidente inevitabile.
Definire l'IA è sfuggente e sta crescendo di più, poiché le startup raccolgono la parola d'ordine su qualunque cosa stiano facendo. È generalmente accettato come qualsiasi tentativo di catturare l'intelligenza e le capacità umane. Un sottoinsieme che è decollato sono le reti neurali, i sistemi che "apprendono" come fanno gli umani attraverso l'allenamento, trasformando l'esperienza in reti di neuroni simulati. Il risultato non è il codice, ma una massa illeggibile e ingarbugliata di milioni - in alcuni casi miliardi - di neuroni artificiali, il che spiega perché coloro che creano moderne IA possono essere confusi su come risolvono i compiti.
La maggior parte dei ricercatori concorda sul sfida della comprensione dell'IA sta premendo. Se non sappiamo come funziona una mente artificiale, come possiamo accertarne i pregiudizi o prevederne gli errori?