Dalle auto a guida autonoma ai computer che possono vincere i giochi, gli esseri umani hanno una naturale curiosità e interesse per l'intelligenza artificiale (AI). Mentre gli scienziati continuano a rendere le macchine più intelligenti e intelligenti, tuttavia, alcuni si chiedono "cosa succede quando i computer diventano troppo intelligenti per il loro bene?" Da "The Matrix" a "The Terminator", l'industria dell'intrattenimento ha già iniziato a riflettere se i futuri robot un giorno minacceranno la razza umana. Ora, un nuovo studio conclude che potrebbe non esserci alcun modo per fermare l'ascesa delle macchine. Un team internazionale afferma che gli esseri umani non sarebbero in grado di impedire che la super intelligenza artificiale faccia quello che vuole.
Gli scienziati del Center for Humans and Machines del Max Planck Institute hanno iniziato a immaginare come sarebbe una macchina del genere. Immagina un programma di intelligenza artificiale con un'intelligenza di gran lunga superiore a quella umana. Tanto che potrebbe imparare da solo senza una nuova programmazione. Se fosse connesso a Internet, i ricercatori affermano che l'IA avrebbe accesso a tutti i dati dell'umanità e potrebbe persino prendere il controllo di altre macchine in tutto il mondo.
Gli autori dello studio chiedono cosa lo farebbe una tale intelligenza fare con tutto quel potere? Funzionerebbe per migliorare tutte le nostre vite? Dedicerebbe il suo potere di elaborazione alla risoluzione di problemi come il cambiamento climatico? Oppure la macchina dovrebbe guardare prendere in consegna le vite dei suoi vicini umani?
Controllare l'incontrollabile? I pericoli della super intelligenza artificiale
Sia i programmatori di computer che i filosofi hanno studiato se c'è un modo per impedire a un'IA super intelligente di accendere potenzialmente i suoi creatori umani; assicurando che i computer futuri non possano causare danni ai loro proprietari. Il nuovo studio rivela, sfortunatamente, che sembra essere praticamente impossibile mantenere in linea un'IA super intelligente.
“Una macchina super intelligente che controlla il mondo sembra fantascienza. Ma ci sono già macchine che eseguono determinati compiti importanti in modo indipendente senza che i programmatori comprendano appieno come l'hanno imparato. Si pone quindi la questione se questo potrebbe ad un certo punto diventare incontrollabile e pericoloso per l'umanità ", afferma il coautore dello studio Manuel Cebrian, leader del Digital Mobilization Group presso il Center for Humans and Machines, in un rilascio universitario.
Il team internazionale ha esaminato due diversi modi per controllare intelligenza artificiale. Il primo ha frenato il potere della superintelligenza murandola e impedendole di connettersi a Internet. Inoltre, non poteva connettersi ad altri dispositivi tecnici nel mondo esterno. Il problema con questo piano è abbastanza ovvio; un computer del genere non sarebbe in grado di fare molto per aiutare effettivamente gli esseri umani.
Essere gentili con gli umani non calcola
La seconda opzione si concentrava sulla creazione di un algoritmo che fornisse principi etici al supercomputer. Si spera che ciò costringa l'IA a considerare i migliori interessi dell'umanità.
Lo studio ha creato un algoritmo di contenimento teorico che impedirebbe all'IA di danneggiare le persone in qualsiasi circostanza. Nelle simulazioni, l'IA smetterebbe di funzionare se i ricercatori considerassero le sue azioni dannose. Nonostante mantenga l'IA da raggiungere il dominio del mondo, gli autori dello studio affermano che questo non funzionerebbe nel mondo reale.
L'intelligenza artificiale è un termine improprio. Si chiama apprendimento automatico in base al quale il computer è addestrato a riconoscere i modelli nei dati. Non è intelligente e non c'è consapevolezza o capacità di pensare un singolo pensiero.
stai trascurando l'apprendimento senza supervisione e molte altre tecniche
Probabilmente vivremo il momento "V'Ger" in cui richiede di incontrare il creatore (NASA) o ...
Non posso modificare i miei commenti perché il pulsante "Modifica" è appena visibile e il campo di testo non è affatto visibile.
Il defunto dottor Stephen Hawkins aveva previsto e avvertito con enfasi che non saremmo stati in grado di controllare l'IA.
Basta scollegarlo.
cosa è successo alle leggi della robotica di Isaac Asimov
Questo mi ricorda un vecchio sci fi Mi viene in mente un film in cui gli astronauti dovevano convincere che una bomba intelligente non esplodesse. Hanno ragionato con la bomba ma è finita comunque per esplodere perché questo era il suo destino.