La marea crescente di algoritmi che corrono per il mondo

Controllo mentaleYoutube
Per favore, condividi questa storia!

I tecnocrati hanno già creato abbastanza algoritmi per far girare il mondo, ma ha appena graffiato la superficie. Alla fine, la dittatura scientifica controllerà praticamente tutto.  Editor TN

Quando cerchi online un nuovo paio di scarpe, scegli un film per lo streaming su Netflix o richiedi un prestito auto, un algoritmo probabilmente ha la sua parola da dire sul risultato.

Le complesse formule matematiche stanno giocando un ruolo crescente in tutti i ceti sociali: dall'individuazione dei tumori della pelle al suggerimento di nuovi amici di Facebook, alla decisione di chi ottiene un lavoro, come vengono impiegate le risorse della polizia, chi ottiene l'assicurazione a quale costo o chi è su un " no fly ”.

Gli algoritmi vengono utilizzati - sperimentalmente - per scrivere articoli di notizie da dati grezzi, mentre la campagna presidenziale di Donald Trump è stata aiutata da esperti di marketing comportamentale che hanno utilizzato un algoritmo per individuare le più alte concentrazioni di "elettori persuadibili".

Ma mentre tali strumenti automatizzati possono iniettare una misura di oggettività in decisioni soggettive precedenti, aumentano i timori sulla mancanza di algoritmi di trasparenza che possono comportare, con la crescente pressione per applicare standard di etica o "responsabilità".

La scienziata dei dati Cathy O'Neil mette in guardia sulle formule di "fiducia cieca" per determinare un risultato equo.

"Gli algoritmi non sono intrinsecamente equi, perché la persona che costruisce il modello definisce il successo", ha detto.

Svantaggi di amplificazione

O'Neil sostiene che mentre alcuni algoritmi possono essere utili, altri possono essere nefasti. Nel suo libro del 2016, "Weapons of Math Destruction", cita alcuni esempi preoccupanti negli Stati Uniti:

  • Le scuole pubbliche di Washington DC nel 2010 hanno licenziato più di 200 insegnanti, inclusi diversi istruttori di tutto rispetto, in base ai punteggi in una formula algoritmica che valutava le prestazioni.
  • Un uomo con diagnosi di disturbo bipolare è stato rifiutato per un impiego presso sette principali rivenditori dopo che un test di "personalità" di terze parti lo ha ritenuto un rischio elevato in base alla sua classificazione algoritmica.
  • Molte giurisdizioni stanno utilizzando la "polizia predittiva" per spostare le risorse in probabili "punti caldi". O'Neill afferma che, a seconda di come i dati vengono inseriti nel sistema, questo potrebbe portare alla scoperta di altri crimini minori e un "ciclo di feedback" che stigmatizza le comunità povere.
  • Alcuni tribunali fanno affidamento su formule classificate per computer per determinare le pene detentive e la libertà sulla parola, che possono discriminare le minoranze tenendo conto di fattori di "rischio" come i loro quartieri e legami di amici o familiari al crimine.
  • Nel mondo della finanza, i broker "raccolgono" dati da fonti online e da altre fonti in nuovi modi per prendere decisioni in materia di credito o assicurazioni. Questo troppo spesso amplifica i pregiudizi contro gli svantaggiati, sostiene O'Neil.

Le sue scoperte sono state riprese in un rapporto della Casa Bianca dello scorso anno che avvertiva che i sistemi algoritmici "non sono infallibili: si basano su input imperfetti, logica, probabilità e persone che li progettano".

Il rapporto ha osservato che i sistemi di dati possono idealmente aiutare a eliminare i pregiudizi umani, ma ha messo in guardia contro gli algoritmi "che svantaggiano sistematicamente determinati gruppi".

Leggi la storia completa qui ...

Sottoscrivi
Notifica
ospite

0 Commenti
Feedback in linea
Visualizza tutti i commenti