A maggio, centinaia di figure di spicco nel campo dell’intelligenza artificiale hanno rilasciato una dichiarazione congiunta in cui descrivevano la minaccia esistenziale che la tecnologia che hanno contribuito a creare rappresenta per l’umanità.
“Mitigare il rischio di estinzione dell’intelligenza artificiale dovrebbe essere una priorità globale”, afferma, “insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare”.
Quella singola frase che invocava la minaccia dell’eradicazione umana, firmata da centinaia di amministratori delegati e scienziati di aziende tra cui OpenAI, DeepMind di Google, Anthropic e Microsoft, ha fatto notizia in tutto il mondo.
A spingere tutti questi esperti a parlare apertamente è stata la promessa, ma anche il rischio, dell’intelligenza artificiale generativa, un tipo di tecnologia in grado di elaborare e generare grandi quantità di dati.
Il rilascio di ChatGPT da parte di OpenAI a novembre ha suscitato un'ondata di febbrile entusiasmo poiché ha dimostrato la capacità di grandi modelli linguistici, la tecnologia alla base del chatbot, di evocare passaggi di testo convincenti, in grado di scrivere un saggio o migliorare le tue e-mail.
Ha creato una corsa tra le aziende del settore per lanciare i propri strumenti di intelligenza artificiale generativa per i consumatori in grado di generare testo e immagini realistiche.
Il clamore attorno alla tecnologia ha portato anche ad una maggiore consapevolezza dei suoi pericoli: il potenziale di creare e diffondere disinformazione con l’avvicinarsi delle elezioni democratiche; la sua capacità di sostituire o trasformare posti di lavoro, soprattutto nelle industrie creative; e il rischio meno immediato che diventi più intelligente e sostituisca gli esseri umani.
Bruxelles ha elaborato misure severe sull’uso dell’intelligenza artificiale che imporrebbero ai gruppi tecnologici l’onere di assicurarsi che i loro modelli non violino le regole. Si prevede che la sua rivoluzionaria legge sull’intelligenza artificiale sarà completamente approvata entro la fine dell’anno, ma prevede un periodo di grazia di circa due anni dopo l’entrata in legge affinché le aziende possano conformarsi.
I regolatori e le aziende tecnologiche hanno espresso a gran voce la necessità di controllare l’intelligenza artificiale, ma le idee su come regolamentare i modelli e i loro creatori differiscono ampiamente da regione a regione.
L’UE ha elaborato misure severe sull’uso dell’intelligenza artificiale che imporrebbero alle aziende tecnologiche l’onere di garantire che i loro modelli non violino le regole. Si sono mossi molto più rapidamente degli Stati Uniti, dove i legislatori stanno preparando un’ampia revisione dell’intelligenza artificiale per determinare innanzitutto quali elementi della tecnologia potrebbero dover essere soggetti a una nuova regolamentazione e cosa può essere coperto dalle leggi esistenti.
Il Regno Unito, nel frattempo, sta tentando di sfruttare la sua nuova posizione al di fuori dell’UE per creare un proprio regime più flessibile che regolerebbe le applicazioni dell’intelligenza artificiale per settore piuttosto che per il software che ne è alla base. Si prevede che sia l’approccio americano che quello britannico saranno più favorevoli all’industria rispetto alla legge di Bruxelles, che è stata ferocemente criticata dall’industria tecnologica.
Le restrizioni più severe per i creatori di intelligenza artificiale, tuttavia, potrebbero essere introdotte dalla Cina nel tentativo di bilanciare gli obiettivi tra il controllo delle informazioni diffuse dai modelli generativi e la competizione nella corsa tecnologica con gli Stati Uniti.
[…] Nella corsa globale per regolamentare l’intelligenza artificiale, nessuno è abbastanza sicuro di come […]
AI is just part of a very big problem that is gradually consuming us all. We attempt to elaborate on both this problem and the only tenable solution HERE: https://1drv.ms/b/s!An5HSJsfNUxEpTRiS0Cp5VAW0kJv?e=9HsPVt