Un gruppo di esperti indipendenti incaricato di consigliare il Commissione europea per informare la sua risposta normativa all'intelligenza artificiale - per sostenere l'obiettivo dichiarato dei legislatori dell'UE di garantire che gli sviluppi dell'IA siano "umani incentrati" - ha pubblicato la sua politica e raccomandazioni di investimento.
Ciò segue le precedenti linee guida etiche per "IA degna di fiducia", elaborate dal gruppo di esperti di alto livello (HLEG) per l'IA di nuovo in Aprile, quando la Commissione ha anche invitato i partecipanti a testare i progetti di regole.
Le raccomandazioni politiche complete di AI HLEG comprendono un documento di pagina 50 altamente dettagliato, che può essere scaricato da questo pagina web. gruppo, che è stato istituito nel giugno 2018, è costituito di un mix di esperti di intelligenza artificiale del settore, rappresentanti della società civile, consulenti politici e esperti politici, accademici ed esperti legali.
Il documento include avvertenze sull'uso dell'IA per la sorveglianza di massa e il punteggio dei cittadini dell'UE, come ad esempio Sistema di credito sociale della Cina, con il gruppo che chiede il divieto assoluto di "attribuire un punteggio alla scala di massa abilitato all'IA per le persone". Esorta inoltre i governi a impegnarsi a non impegnarsi nella sorveglianza generale delle popolazioni ai fini della sicurezza nazionale. (Quindi forse è altrettanto che il Regno Unito ha votato per lasciare l'UE, dato il spumeggianti poteri di sorveglianza statale è diventato legge alla fine di 2016.)
"Sebbene ci possa essere una forte tentazione per i governi di" proteggere la società "costruendo un sistema di sorveglianza pervasivo basato su sistemi di intelligenza artificiale, questo sarebbe estremamente pericoloso se spinto a livelli estremi", scrive HLEG. "I governi dovrebbero impegnarsi a non impegnarsi nella sorveglianza di massa delle persone e a distribuire e procurare solo sistemi di IA affidabili, progettati per essere rispettosi della legge e dei diritti fondamentali, allineati ai principi etici e socio-tecnicamente solidi."
Il gruppo chiede inoltre che la "sorveglianza commerciale" delle persone e delle società sia "contrastata" - suggerendo che la risposta dell'UE alla potenza e al potenziale di uso improprio delle tecnologie di intelligenza artificiale dovrebbe includere la garanzia che il tracciamento delle persone online sia "strettamente in linea con i diritti fondamentali come la privacy ", Compreso (il gruppo specifica) quando si tratta di servizi" gratuiti "(sebbene con un leggero avvertimento sulla necessità di considerare l'impatto dei modelli di business).
La scorsa settimana il cane da guardia del Regno Unito per la protezione dei dati ha sparato un tiro ancora più specifico agli archi del settore degli annunci comportamentali online, avvertendo che l'elaborazione su larga scala dei dati personali degli utenti Web per il targeting degli annunci non è conforme alle norme sulla privacy dell'UE. Al settore è stato detto che le sue pratiche di violazione dei diritti devono cambiare, anche se l'Ufficio del Commissario per l'Informazione non sta ancora per abbattere il colpo. Ma l'avviso di riforma era chiaro.
Mentre i responsabili politici dell'UE lavorano alla creazione di un quadro normativo per l'IA che rispetti i diritti, cercando di guidare i prossimi dieci anni + di sviluppi tecnologici all'avanguardia nella regione, l'attenzione e il controllo più ampi che attireranno le pratiche digitali e i modelli di business sembrano destinati a guidare una ripulitura delle pratiche digitali problematiche che sono state in grado di proliferare sotto una regolamentazione del tocco nulla o molto leggera, prima d'ora.
L'HLEG chiede anche il supporto per lo sviluppo di meccanismi per la protezione dei dati personali e per gli individui di "controllare ed essere potenziati dai loro dati" - che sostengono affronterebbero "alcuni aspetti dei requisiti dell'IA affidabile".
"Gli strumenti dovrebbero essere sviluppati per fornire un'implementazione tecnologica del GDPR e sviluppare la tutela della privacy / privacy progettando metodi tecnici per spiegare criteri, causalità nel trattamento dei dati personali dei sistemi di intelligenza artificiale (come l'apprendimento automatico federato)", scrivono.
“Supportare lo sviluppo tecnologico delle tecniche di anonimizzazione e crittografia e sviluppare standard per lo scambio sicuro di dati basato sul controllo dei dati personali. Promuovere l'educazione del grande pubblico nella gestione dei dati personali, compresa la consapevolezza e la responsabilizzazione delle persone nei processi decisionali basati sui dati personali dell'IA. Creare soluzioni tecnologiche per fornire agli individui informazioni e controllo su come vengono utilizzati i loro dati, ad esempio per la ricerca, la gestione del consenso e la trasparenza oltre i confini europei, nonché eventuali miglioramenti e risultati che ne derivano e sviluppare standard per la sicurezza scambio di dati basato sul controllo dei dati personali. "