Questa settimana, Vox e altri punti vendita segnalati che il comitato etico per l'IA di recente creazione di Google stava andando in pezzi a causa delle polemiche su diversi membri del consiglio.
Bene, è ufficialmente fatto a pezzi - è stato cancellato. Google ha detto a Vox giovedì che sta staccando la spina dalla scheda etica.
Il consiglio è sopravvissuto per poco più di una settimana. Fondato per guidare lo "sviluppo responsabile dell'IA" presso Google, avrebbe avuto otto membri e si sarebbe incontrato quattro volte nel corso di 2019 per considerare le preoccupazioni relative al programma di intelligenza artificiale di Google. Queste preoccupazioni includono come l'IA può abilitare stati autoritari, come gli algoritmi dell'IA producono risultati disparati, se lavorare su applicazioni militari dell'IA e altro ancora. Ma ha avuto problemi fin dall'inizio.
Migliaia di dipendenti Google hanno firmato a petizione che chiede la rimozione di un membro del consiglio, il presidente della Heritage Foundation Kay Coles James, per i suoi commenti sulle persone trans e sullo scetticismo della sua organizzazione sui cambiamenti climatici. Nel frattempo, l'inclusione dell'amministratore delegato dell'azienda drone Dyan Gibbens ha riaperto le vecchie divisioni all'interno dell'azienda utilizzo dell'IA dell'azienda per applicazioni militari.
Consigliere Alessandro Acquisti rassegnato. Un altro membro, Joanna Bryson, difende la sua decisione di non dimettersi, rivendicato James, "Che ci crediate o no, so di peggio di una delle altre persone". Si sono trovati altri membri del consiglio sommerso con richieste che giustificano la loro decisione di rimanere nel consiglio.
Giovedì pomeriggio, un portavoce di Google ha dichiarato a Vox che la società ha deciso di sciogliere il panel, chiamato Advanced Technology External Advisory Council (ATEAC), interamente. Ecco la dichiarazione completa della società:
È diventato chiaro che nell'attuale ambiente, ATEAC non può funzionare come volevamo. Quindi stiamo finendo il consiglio e torniamo al tavolo da disegno. Continueremo ad essere responsabili nel nostro lavoro sulle questioni importanti che l'IA solleva e troveremo diversi modi per ottenere opinioni esterne su questi argomenti.
Il panel avrebbe dovuto aggiungere prospettive esterne al lavoro etico sull'IA in corso da parte degli ingegneri di Google, che continueranno tutti. Si spera che la cancellazione del consiglio di amministrazione non rappresenti un ritiro dal lavoro etico sull'intelligenza artificiale di Google, ma un'opportunità per considerare come coinvolgere in modo più costruttivo gli stakeholder esterni.
Il consiglio si stava trasformando in un'enorme responsabilità per Google
La credibilità del consiglio di amministrazione ha avuto per la prima volta un colpo quando Alessandro Acquisti, un ricercatore sulla privacy, ha annunciato su Twitter che si stava dimettendo, sostenendo: "Mentre sono dedito alla ricerca alle prese con questioni etiche chiave di equità, diritti e inclusione nell'IA, non credo che questo sia il forum giusto per me per impegnarmi in questo importante lavoro".
Nel frattempo, la petizione per rimuovere Kay Coles James finora ha attirato più di 2,300 firme dei dipendenti di Google e non ha mostrato segni di perdita di vapore.
Con l'intensificarsi della rabbia nei confronti del consiglio di amministrazione, i membri del consiglio di amministrazione sono stati coinvolti in ampi dibattiti etici sul perché fossero nel consiglio di amministrazione, che non può essere stato ciò che Google sperava. Su Facebook, Luciano Floridi, consigliere di amministrazione, filosofo dell'etica a Oxford, ha meditato:
Chiedere il consiglio di [Kay Coles James] è stato un grave errore e invia un messaggio sbagliato sulla natura e gli obiettivi dell'intero progetto ATEAC. Da una prospettiva etica, Google ha giudicato erroneamente cosa significhi avere visioni rappresentative in un contesto più ampio. Se la signora Coles James non si dimette, come spero che faccia, e se Google non la rimuove (https://medium.com/…/googlers-against-transphobia-and-hate-…), come ho personalmente raccomandato, la domanda diventa: qual è la giusta posizione morale da prendere in considerazione di questo grave errore?
Alla fine ha deciso di rimanere nel panel, ma non era il tipo di dibattito etico che Google sperava di scatenare - ed è diventato difficile immaginare che i due lavorassero insieme.
Non è stato l'unico problema. io litigato un giorno fa che, a parte lo sdegno, il consiglio non era ben impostato per il successo. I consigli etici sull'intelligenza artificiale come quelli di Google, che sono in voga nella Silicon Valley, sembrano in gran parte non essere attrezzati per risolvere, o persino fare progressi, domande difficili sui progressi etici dell'IA.
Un ruolo nel consiglio di amministrazione di Google era una posizione non retribuita e sdentata che non può, in quattro riunioni nel corso di un anno, arrivare a una chiara comprensione di tutto ciò che Google sta facendo, figuriamoci offrire una guida sfumata su di essa. Ci sono urgenti domande etiche sul lavoro di intelligenza artificiale di Google - e nessuna vera strada attraverso la quale il consiglio di amministrazione potrebbe affrontarle in modo soddisfacente. Fin dall'inizio, è stato progettato male per l'obiettivo.
Ora è stato cancellato.