Più che mai, Facebook è sotto pressione per dimostrare che i suoi algoritmi vengono distribuiti in modo responsabile.
Mercoledì scorso, alla sua conferenza degli sviluppatori F8, la società ha rivelato di aver formato un team speciale e sviluppato software discreti per garantire che i suoi sistemi di intelligenza artificiale prendano decisioni il più eticamente possibile, senza distorsioni.
Facebook, come altre grandi aziende tecnologiche con prodotti utilizzati da grandi e diversi gruppi di persone, è più profondamente incorporato AI nei suoi servizi. Facebook ha detto questa settimana che inizierà a offrire la traduzione dei messaggi che le persone ricevono tramite l'app Messenger. I sistemi di traduzione devono prima essere addestrati sui dati e la spinta etica potrebbe aiutare a garantire che i sistemi di Facebook imparino a fornire traduzioni corrette.
Facebook ha affermato che questi sforzi non sono il risultato di alcun cambiamento avvenuto nelle sette settimane da quando è stato rivelato che la società di analisi dei dati Cambridge Analytica dati personali utilizzati in modo improprio degli utenti del social network prima delle elezioni del 2016. Ma è chiaro che il sentimento pubblico nei confronti di Facebook è diventato drammaticamente negativo negli ultimi tempi, tanto che il CEO Mark Zuckerberg ha dovuto sopportare ore di interrogazioni congressuali il mese scorso.
Ogni annuncio è ora al microscopio.
Facebook ha smesso di formare un consiglio focalizzato sull'etica dell'IA, come Axon (ex Taser) lo ha fatto la scorsa settimana. Ma le mosse si allineano con un più ampio riconoscimento del settore che i ricercatori di intelligenza artificiale devono lavorare per rendere i loro sistemi inclusivi. Il gruppo DeepMind AI di Alphabet ha formato un file squadra etica e società l'anno scorso. Prima di ciò, Microsoft l'organismo di ricerca ha istituito un gruppo di trasparenza ed etica sulla responsabilità equità.
Il settore dell'intelligenza artificiale ha avuto la sua parte di imbarazzi, come quando Google Photos è stato avvistato tre anni fa categorizzare i neri come gorilla.
L'anno scorso, il team di Kloumann ha sviluppato un software chiamato Fairness Flow, che da allora è stato integrato nel ampiamente utilizzato FBLearner Flow software interno per una più facile formazione e gestione dei sistemi di intelligenza artificiale. Il software analizza i dati, prendendo in considerazione il suo formato, e quindi produce un rapporto che lo riassume.
Kloumann ha affermato di aver lavorato sul tema dell'equità da quando è entrata a far parte di Facebook nel 2016, proprio quando le persone nel settore tecnologico hanno iniziato a parlarne più apertamente e quando sono emerse le preoccupazioni della società sul potere dell'IA.
Leggi la storia completa qui ...