Arvind Krishna, CEO di IBM, ha annunciato oggi che la società non avrebbe più venduto servizi di riconoscimento facciale, chiedendo un "dialogo nazionale" sull'opportunità di utilizzarlo. Ha inoltre espresso sostegno per un nuovo disegno di legge volto a ridurre la violenza della polizia e aumentare la responsabilità.
In una lettera segnalato da CNBC, scritto a sostegno del Legge sulla giustizia nella polizia introdotto oggi, Krishna spiega l'uscita dell'azienda dal controverso business dell'identificazione facciale come servizio.
IBM si oppone fermamente e non perdonerà l'uso di alcuna tecnologia, inclusa la tecnologia di riconoscimento facciale offerta da altri fornitori, per la sorveglianza di massa, la profilazione razziale, le violazioni dei diritti umani e delle libertà di base o qualsiasi scopo che non sia coerente con i nostri valori e Principi di Fiducia e trasparenza. Riteniamo che sia giunto il momento di avviare un dialogo nazionale su se e come la tecnologia di riconoscimento facciale dovrebbe essere impiegata dalle forze dell'ordine nazionali.
Questo attento approccio allo sviluppo e all'implementazione della tecnologia non è nuovo: IBM lo ha sottolineato l'anno scorso un nuovo database di dati del viso che era più diversificato di qualsiasi altra cosa disponibile al momento. Dopotutto, come qualsiasi programma, questi sistemi sono validi solo come le informazioni che li inserisci.
Tuttavia, il riconoscimento facciale non sembra aver fatto molti soldi all'azienda, se ce ne sono. Ad essere onesti, la tecnologia è davvero agli inizi e ci sono poche applicazioni in cui un venditore aziendale come IBM ha senso. Il controverso servizio di rekognition di Amazon, mentre è stato testato da un bel po 'di forze dell'ordine, non è ben pensato sul campo. Non gioverebbe molto a IBM tentare di competere con un prodotto che è similmente appena abbastanza buono da usare.
La lettera di Krishna afferma inoltre che "i fornitori e gli utenti dei sistemi Al hanno una responsabilità condivisa per garantire che Al sia sottoposto a test di parzialità, in particolare quando utilizzato nelle forze dell'ordine, e che tali test di bias siano controllati e segnalati". Questa è una specie di sparo per quelli sul campo, in particolare Amazon, che sono stati chiamati per la scarsa qualità dei sistemi di riconoscimento facciale ma non hanno smesso di commercializzarli.
Non è chiaro se o come la società continuerà a svolgere ricerche sull'IA in questo senso.