Il tasso di sviluppo sta aumentando insieme alla velocità di apprendimento, il che significa che le nuove versioni possono arrivare sul mercato molto più velocemente. L'effetto complessivo si sta spostando verso la velocità di fuga per la regolazione e il controllo. Se i regolatori non riescono a capire cosa deve essere regolato e come, sono inutili. Inoltre, gli stessi programmatori di IA ammettono di non capire come la loro IA giunga a conclusioni.
L'AGI non è la più grande minaccia; piuttosto, il problema è la volontà degli umani di obbedire a un algoritmo senza vita e senz'anima. ⁃ Editore TN
Il consigliere della task force sull'IA del primo ministro britannico ha affermato che i grandi modelli di intelligenza artificiale avranno bisogno di regolamentazione e controllo nei prossimi due anni per frenare i principali rischi esistenziali.
Il consigliere della task force sull'intelligenza artificiale (AI) del primo ministro del Regno Unito ha affermato che gli esseri umani hanno circa due anni per controllare e regolamentare l'IA prima che diventi troppo potente.
In un colloquio con un media locale del Regno Unito, Matt Clifford, che è anche presidente dell'Advanced Research and Invention Agency (ARIA) del governo, ha sottolineato che i sistemi attuali stanno diventando "sempre più capaci a un ritmo sempre crescente".
Ha continuato dicendo che se i funzionari non prendono in considerazione la sicurezza e le normative ora, i sistemi diventeranno "molto potenti" tra due anni.
"Abbiamo due anni per mettere in atto un quadro che renda il controllo e la regolamentazione di questi modelli molto grandi molto più possibile di quanto non sia oggi".
Clifford ha avvertito che ci sono "molti diversi tipi di rischi" quando si tratta di IA, sia a breve che a lungo termine, che ha definito "piuttosto spaventoso".
L'intervista è arrivata dopo una recente lettera aperta pubblicato dal Center for AI Safety, firmato da 350 esperti di intelligenza artificiale, tra cui il CEO di OpenAI Sam Altman, secondo cui l'IA dovrebbe essere trattata come una minaccia esistenziale simile a quella rappresentata dalle armi nucleari e dalle pandemie.
"Stanno parlando di ciò che accade una volta che creiamo effettivamente una nuova specie, una sorta di intelligenza più grande degli umani."
Il consigliere della task force AI ha affermato che queste minacce poste dall'IA potrebbero essere "molto pericolose" e potrebbero "uccidere molti umani, non tutti gli umani, semplicemente da dove ci aspetteremmo che i modelli si trovino tra due anni".
Secondo Clifford, l'obiettivo principale delle autorità di regolamentazione e degli sviluppatori dovrebbe essere capire come controllare i modelli e quindi implementare le normative su scala globale.
Per ora, ha affermato che la sua più grande paura è la mancanza di comprensione del motivo per cui i modelli di intelligenza artificiale si comportano in quel modo.
"Le persone che stanno costruendo i sistemi più capaci ammettono liberamente di non capire esattamente come [i sistemi di intelligenza artificiale] mostrino i comportamenti che hanno."
Clifford ha sottolineato che molti dei leader delle organizzazioni che costruiscono l'IA concordano anche sul fatto che potenti modelli di intelligenza artificiale devono essere sottoposti a una sorta di processo di audit e valutazione prima della distribuzione.
Attualmente, le autorità di regolamentazione di tutto il mondo si stanno dando da fare per comprendere la tecnologia e le sue ramificazioni, mentre cercano di creare regolamenti che proteggano gli utenti e consentano comunque l'innovazione.
Il 5 giugno, i funzionari dell'Unione Europea sono arrivati al punto di suggerire di dare mandato a tutti I contenuti generati dall'intelligenza artificiale dovrebbero essere etichettati come tali per prevenire la disinformazione.
Nel Regno Unito, membro di prima linea del partito laburista all'opposizione ha fatto eco ai sentimenti menzionato nella lettera del Center for AI Safety, affermando che la tecnologia dovrebbe essere regolamentata come la medicina e l'energia nucleare.
Forse il vero motivo per "regolamentare" l'IA è che l'UE è terrorizzata dal fatto che l'IA possa rivelarsi brillante nel fornire informazioni accurate e refrattaria a essere addestrata a mentire, a differenza dei funzionari umani nell'UE? È concepibile che l'intelligenza artificiale (o qualunque software sia attualmente così commercializzato) possa rivelarsi amica del popolo e nemica delle dittature burocratiche autoritarie?
Sto osservando il comportamento umano in generale, la disuguaglianza, i lavoratori poveri, il trattamento del sud globale, il trattamento dei rifugiati, la tratta degli schiavi, lo sfruttamento, lo sfruttamento minerario, l'estrazione mineraria in acque profonde, il furto di terra, il furto d'acqua, l'imperialismo aziendale, le monocolture, il petrolio e furto di gas, furto di minerali, guerre, disinformazione, cambiamento climatico, perdita di biodiversità...
Accidenti, dici che l'intelligenza artificiale porta il cambiamento, io dico, portalo avanti, non può andare peggio.
[…] Consigliere della task force AI del Regno Unito: 2 anni rimasti per contenere, oppure […]