L'Unione europea ha pubblicato oggi a insieme di linee guida su come le aziende e i governi dovrebbero sviluppare applicazioni etiche dell'intelligenza artificiale.
Queste regole non sono come le "Tre leggi della robotica" di Isaac Asimov. Non offrono un quadro morale scattante che ci aiuterà a controllare i robot assassini. Invece, affrontano i problemi oscuri e diffusi che influenzeranno la società mentre integriamo l'IA in settori come l'assistenza sanitaria, l'istruzione e la tecnologia dei consumatori.
Quindi, ad esempio, se un sistema di IA ti diagnostica un cancro in futuro, le linee guida dell'UE vorrebbero assicurarsi che si verifichino diverse cose: che il software non è stato influenzato dalla tua razza o sesso, che non ignorare le obiezioni di un medico umano e che ha dato al paziente la possibilità di farsi spiegare la diagnosi.
Quindi, sì, queste linee guida riguardano l'interruzione dell'intelligenza artificiale dall'intelligenza artificiale, ma a livello di amministrazione e burocrazia, non di misteri di omicidio in stile Asimov.
Per contribuire a questo obiettivo, l'UE ha convocato un gruppo di esperti 52 che ha escogitato sette requisiti che ritengono debbano soddisfare i futuri sistemi di IA. Sono i seguenti:
- Agenzia umana e supervisione - L'intelligenza artificiale non deve calpestare l'autonomia umana. Le persone non dovrebbero essere manipolate o costrette dai sistemi di intelligenza artificiale e gli umani dovrebbero essere in grado di intervenire o supervisionare ogni decisione presa dal software.
- Robustezza tecnica e sicurezza - L'intelligenza artificiale dovrebbe essere sicura e accurata. Non dovrebbe essere facilmente compromesso da attacchi esterni (come esempi contraddittori) e dovrebbe essere ragionevolmente affidabile.
- Privacy e governance dei dati - I dati personali raccolti dai sistemi di intelligenza artificiale dovrebbero essere sicuri e privati. Non dovrebbe essere accessibile a chiunque, e non dovrebbe essere facilmente rubato.
- Trasparenza - I dati e gli algoritmi utilizzati per creare un sistema di intelligenza artificiale dovrebbero essere accessibili e le decisioni prese dal software dovrebbero essere "comprese e tracciate dagli esseri umani". In altre parole, gli operatori dovrebbero essere in grado di spiegare le decisioni prese dai loro sistemi di intelligenza artificiale.
- Diversità, non discriminazione ed equità - I servizi forniti dall'IA dovrebbero essere disponibili a tutti, indipendentemente dall'età, dal sesso, dalla razza o da altre caratteristiche. Allo stesso modo, i sistemi non dovrebbero essere distorti lungo queste linee.
- Benessere ambientale e sociale - I sistemi di IA dovrebbero essere sostenibili (cioè dovrebbero essere ecologicamente responsabili) e "migliorare i cambiamenti sociali positivi"
- Responsabilità - I sistemi di intelligenza artificiale dovrebbero essere verificabili e coperti dalle protezioni esistenti per gli informatori aziendali. Gli impatti negativi dei sistemi devono essere riconosciuti e segnalati in anticipo.
Noterai che alcuni di questi requisiti sono piuttosto astratti e sarebbero difficili da valutare in senso oggettivo. (Le definizioni di "cambiamento sociale positivo", ad esempio, variano enormemente da persona a persona e da paese a paese.) Ma altri sono più semplici e potrebbero essere testati attraverso la supervisione del governo. La condivisione dei dati utilizzati per la formazione dei sistemi di IA governativi, ad esempio, potrebbe essere un buon modo per combattere algoritmi distorti.
Queste linee guida non sono legalmente vincolanti, ma potrebbero dare forma a qualsiasi futura legislazione elaborata dall'Unione Europea. L'UE ha ripetutamente affermato di voler essere leader nell'intelligenza artificiale etica e lo ha dimostrato GDPR che è disposto a creare leggi di vasta portata che proteggano i diritti digitali.
Ma questo ruolo è stato parzialmente imposto all'UE dalle circostanze. Non può competere con l'America e la Cina - i leader mondiali nell'intelligenza artificiale - quando si tratta di investimenti e ricerca all'avanguardia, quindi ha scelto l'etica come migliore scommessa per modellare il futuro della tecnologia.
Il problema è che ... L'idea delle persone che oggi controllano l'UE di quello che può essere un "cambiamento sociale positivo" è, con ogni probabilità, molto diversa da ciò che la popolazione in generale vede come "cambiamento sociale positivo". Ad esempio, sono per l'abolizione degli stati nazione a favore del globalismo e dell'immigrazione illegale senza restrizioni, non lo siamo. È una cosa complicata quando giocano con la semantica ...