Yoshua Bengio, uno scienziato informatico canadese che ha aiutato a sperimentare le tecniche alla base dell'attuale entusiasmo per l'intelligenza artificiale, è preoccupato per l'uso cinese dell'intelligenza artificiale per la sorveglianza e il controllo politico.
Bengio, che è anche co-fondatore della società di software AI AI di Montreal, ha dichiarato di essere preoccupato per la tecnologia che ha contribuito a creare per essere utilizzato per controllare il comportamento delle persone e influenzare le loro menti.
"Questo è lo scenario del Grande Fratello del 1984", ha detto in un'intervista. "Penso che stia diventando sempre più spaventoso."
Bengio, professore all'Università di Montreal, è considerato uno dei tre "padrini" dell'apprendimento profondo, insieme a Yann LeCun e Geoff Hinton. È una tecnologia che utilizza le reti neurali - una sorta di software liberamente basato su aspetti del cervello umano - per fare previsioni basate sui dati. È responsabile dei recenti progressi nel riconoscimento facciale, nell'elaborazione del linguaggio naturale, nella traduzione e negli algoritmi di raccomandazione.
Il deep learning richiede una grande quantità di dati per fornire esempi da cui apprendere, ma la Cina, con la sua vasta popolazione e il sistema di registrazione statale, ne ha molti.
Il governo cinese ha iniziato a utilizzare videocamere a circuito chiuso e riconoscimento facciale per monitorare ciò che i suoi cittadini fanno in pubblico, dal jaywalking al coinvolgimento nel dissenso politico. Ha anche creato una piattaforma nazionale di condivisione delle informazioni sul credito, che viene utilizzata per inserire nella lista nera i passeggeri ferroviari e aerei per comportamenti "antisociali" e sta considerando di espandere gli usi di questo sistema ad altre situazioni.
"L'uso della tua faccia per rintracciarti dovrebbe essere altamente regolamentato", ha detto Bengio.
Bengio non è solo nella sua preoccupazione per i casi d'uso della Cina per l'IA. Il miliardario George Soros ha recentemente utilizzato un discorso al World Economic Forum di X. 24, per evidenziare i rischi che l'uso del paese dell'IA comporta per le libertà civili e i diritti delle minoranze.
A differenza di alcuni colleghi, Bengio, che dirige l'Istituto di Montreal per gli algoritmi di apprendimento (Mila), ha resistito alla tentazione di lavorare per una grande azienda tecnologica basata sulla pubblicità. Ha affermato che lo sviluppo responsabile dell'IA potrebbe richiedere ad alcune grandi aziende tecnologiche di cambiare il modo in cui operano.
Anche la quantità di dati controllati dalle grandi aziende tecnologiche è un problema. Ha detto che la creazione di trust di dati - entità senza scopo di lucro o quadri giuridici in base ai quali le persone possiedono i propri dati e ne consentono l'utilizzo solo per determinati scopi - potrebbe essere una soluzione. Se un trust contenesse dati sufficienti, potrebbe negoziare condizioni migliori con le grandi aziende tecnologiche che ne avevano bisogno, ha detto giovedì durante un discorso presso l'ufficio di Amnesty International UK a Londra.