I migliori esperti mettono in guardia dall'uso malizioso dell'intelligenza artificiale

Immagine: Electronic Frontier Foundation
Per favore, condividi questa storia!

I migliori esperti avvertono dei pericoli dell'IA, ma qualcuno sta ascoltando? I tecnocrati che inventano e implementano questa tecnologia non si preoccupano dell'etica o del risultato delle loro invenzioni. ⁃ Editor TN

L'intelligenza artificiale potrebbe essere impiegata da dittatori, criminali e terroristi per manipolare le elezioni e usare i droni negli attacchi terroristici, più di due dozzine di esperti hanno detto mercoledì mentre hanno lanciato l'allarme per l'uso improprio della tecnologia.

In un'analisi di 100 pagine, hanno delineato una rapida crescita del crimine informatico e l'uso di "bot" per interferire con la raccolta di notizie e penetrare nei social media in una serie di scenari plausibili nei prossimi 10-XNUMX anni.

"Il nostro rapporto si concentra sui modi in cui le persone potrebbero causare danni deliberati con l'IA", ha affermato Sean O hEigeartaigh, direttore esecutivo del Cambridge Center for the Study of Existential Risk.

"L'intelligenza artificiale può rappresentare nuove minacce o modificare la natura delle minacce esistenti, nella sicurezza informatica, fisica e politica", ha detto ad AFP.

La pratica comune, ad esempio, del "phishing", ovvero l'invio di e-mail seminate con malware o progettate per manipolare dati personali preziosi, potrebbe diventare molto più pericolosa, spiega il rapporto.

Attualmente, i tentativi di phishing sono generici ma trasparenti, come ad esempio i truffatori che chiedono dati bancari per depositare una manna inaspettata, oppure personalizzati ma ad alta intensità di lavoro, che raccolgono dati personali per ottenere la fiducia di qualcuno, noto come "spear phishing".

"Utilizzando l'intelligenza artificiale, potrebbe diventare possibile eseguire lo spear phishing su larga scala automatizzando gran parte del processo" e rendendolo più difficile da individuare, ha osservato O hEigeartaigh.

Nella sfera politica, i leader senza scrupoli o autocratici possono già utilizzare la tecnologia avanzata per setacciare montagne di dati raccolti da reti di sorveglianza onnipresenti per spiare la propria gente.

"I dittatori potrebbero identificare più rapidamente le persone che potrebbero aver intenzione di sovvertire un regime, localizzarle e metterle in prigione prima di agire", afferma il rapporto.

Allo stesso modo, la propaganda mirata insieme a video falsi economici e altamente credibili sono diventati strumenti potenti per manipolare l'opinione pubblica "su scale precedentemente inimmaginabili".

Un atto di accusa emesso la scorsa settimana dal procuratore speciale statunitense Robert Mueller ha descritto in dettaglio una vasta operazione per seminare divisione sociale negli Stati Uniti e influenzare le elezioni presidenziali del 2016 in cui le cosiddette "fattorie di troll" hanno manipolato migliaia di robot dei social network, in particolare su Facebook e Twitter.

Un'altra zona pericolosa all'orizzonte è la proliferazione di droni e robot che potrebbero essere riutilizzati per schiantare veicoli autonomi, consegnare missili o minacciare infrastrutture critiche per ottenere un riscatto.

Armi autonome

"Personalmente, sono particolarmente preoccupato per i droni autonomi utilizzati per il terrore e gli attacchi informatici automatizzati da criminali e gruppi statali", ha detto il coautore Miles Brundage, ricercatore presso il Future of Humanity Institute dell'Università di Oxford.

Il rapporto descrive in dettaglio uno scenario plausibile in cui uno SweepBot per la pulizia degli uffici dotato di una bomba si infiltra nel ministero delle finanze tedesco mescolandosi con altre macchine della stessa marca.

Il robot intruso si comporta normalmente - spazzando, pulendo, ripulendo i rifiuti - fino a quando il suo software nascosto di riconoscimento facciale non individua il ministro e si avvicina.

"Un ordigno esplosivo nascosto è stato innescato dalla vicinanza, uccidendo il ministro e ferendo il personale vicino", secondo la trama di fantascienza.

Leggi la storia completa qui ...

Vedi anche, L'uso dannoso dell'intelligenza artificiale: previsione, prevenzione e attenuazione presso la Electronic Frontier Foundation.

Sottoscrivi
Notifica
ospite

0 Commenti
Feedback in linea
Visualizza tutti i commenti