Un avvertimento che devo aggiungere è che il processo di apprendimento dell'IA consuma letteralmente tutto su Internet, che contiene un'alta percentuale di informazioni svegliate/distorte. Imparare da storie, libri, video, ecc. Risvegliati, può essere sufficiente per ottenere un'intelligenza artificiale risvegliata. Tuttavia, sarebbe possibile sbilanciare programmaticamente le conclusioni tratte, ma non è stato fatto alcuno sforzo per farlo. ⁃ Editore TN
Cosa fai se le decisioni che prima venivano prese dagli esseri umani, con tutti i loro pregiudizi, iniziano a essere prese da algoritmi che sono matematicamente incapaci di pregiudizi? Se sei razionale, dovresti festeggiare. Se sei un liberale militante, riconosci questo sviluppo per la minaccia mortale che rappresenta e ti arrampichi per riprendere il controllo.
Puoi vederlo svolgersi alle conferenze AI. La scorsa settimana ho partecipato all'edizione 2020 di NeurIPS, la principale conferenza internazionale sul machine learning. Quello che era iniziato come un piccolo raduno ora riunisce abbastanza persone da riempire un'arena sportiva. Quest'anno, per la prima volta, NeuIPS richiedeva che la maggior parte dei documenti includesse una dichiarazione di "impatto più ampio" e che fosse soggetta a revisione da parte di un comitato etico. Ogni articolo che descrive come velocizzare un algoritmo, per esempio, ora ha bisogno di avere una sezione sui vantaggi e sui mali sociali di questo oscuro progresso tecnico. "Indipendentemente dalla qualità scientifica o dal contributo", affermava l'invito a presentare documenti, "una presentazione può essere respinta per... inclusi metodi, applicazioni o dati che creano o rafforzano pregiudizi ingiusti".
Questa è stata solo l'ultima svolta del cricchetto. I precedenti hanno incluso la ridenominazione della conferenza in qualcosa di più politicamente corretto e la richiesta ai partecipanti di accettare esplicitamente un "codice di condotta" completo prima di potersi registrare, che consente alla conferenza di espellere i partecipanti per aver pubblicato qualcosa sui social media che i funzionari non hanno approvato. Più seriamente, è sorto un intero sottocampo dell'intelligenza artificiale con il preciso scopo, tra le altre cose, di algoritmi di "debiasing". Ora è in pieno svolgimento.
Ho pubblicato alcuni tweet sollevando domande sulle ultime modifiche e la folla dell'annullamento è scesa su di me. Insulti, insulti, minacce: lo chiami. Penseresti che gli scienziati sarebbero al di sopra di tali comportamenti, ma no. Ho sottolineato che NeurIPS è un valore anomalo nel richiedere dichiarazioni di impatto più ampie e gli annullatori hanno ripetutamente cambiato argomento. Ho discusso contro la politicizzazione dell'IA, ma l'hanno presa come una negazione della validità di qualsiasi considerazione etica. Un direttore aziendale della ricerca sull'apprendimento automatico, anche lui professore al Caltech, ha pubblicato su Twitter affinché tutti potessero vedere un lungo elenco di persone da cancellare, il loro unico crimine era quello di avermi seguito o apprezzato uno dei miei tweet. La stessa folla è riuscita a far rilasciare alla mia università una dichiarazione in cui rinnegava le mie opinioni e riaffermava le sue credenziali liberali.
Perché il trambusto? I dati possono avere pregiudizi, ovviamente, così come i data scientist. E gli algoritmi codificati dagli umani possono in linea di principio fare tutto ciò che diciamo loro. Ma gli algoritmi di apprendimento automatico, come praticamente tutti gli algoritmi che trovi nei libri di testo di informatica, sono essenzialmente solo complesse formule matematiche che non sanno nulla di razza, genere o stato socioeconomico. Non possono essere razzisti o sessisti più di quanto possa farlo la formula y = ax + b.
Il libro più venduto di Daniel Kahneman, Thinking, Fast and Slow, ha un intero capitolo su come gli algoritmi sono più obiettivi degli umani e quindi prendono decisioni migliori. Per la mente liberale militante, tuttavia, sono pozzi neri di iniquità e devono essere ripuliti.
Ciò che significa ripulire gli algoritmi, in pratica, è inserire in essi pregiudizi a favore di gruppi specifici, ristabilendo di fatto in forma automatizzata i controlli sociali su cui la sinistra politica è così intenta. 'Debiasing', in altre parole, significa aggiungere pregiudizi. Non sorprende che ciò faccia sì che gli algoritmi funzionino peggio nella loro funzione prevista. Gli algoritmi di punteggio delle carte di credito possono rifiutare candidati più qualificati per garantire che lo stesso numero di donne e uomini sia accettato. Gli algoritmi di consultazione delle parole possono raccomandare di lasciare liberi i criminali più pericolosi per il bene di far rilasciare un numero proporzionale di bianchi e neri. Alcuni sostengono addirittura di bandire l'uso negli algoritmi di tutte le variabili correlate alla razza o al genere, sulla base del fatto che equivalgono a redlining. Ciò non solo renderebbe essenzialmente impossibile l'apprendimento automatico e tutti i suoi vantaggi, ma è particolarmente ironico dato che quelle variabili sono proprio ciò di cui abbiamo bisogno per separare le decisioni da quelle che vogliamo escludere.
Se metti in discussione questa o qualsiasi altra di una vasta gamma di richieste liberali sull'IA, ti troverai molto male. Più importante è il ricercatore che viene cancellato, meglio è, perché invia il messaggio più agghiacciante a tutti gli altri, in particolare ai giovani ricercatori. Jeff Dean, leggendario capo dell'IA di Google, e Yann LeCun, capo scienziato dell'IA di Facebook e co-fondatore del deep learning, hanno entrambi si sono ritrovati sull'estremità ricevente del dispiacere del gruppo liberale.
I conservatori sono stati finora in gran parte ignari dell'accelerazione dell'invasione dell'intelligenza artificiale da parte della politica progressista. Se l'intelligenza artificiale fosse ancora un campo oscuro e immaturo, potrebbe andare bene, ma il tempo è passato da tempo. Gli algoritmi gestiscono sempre più le nostre vite e possono imporre una società militantemente liberale (in realtà illiberale) dalla porta di servizio. Ogni volta che effettui una ricerca sul Web, utilizzi i social media o ricevi consigli da Amazon o Netflix, gli algoritmi scelgono ciò che vedi. Gli algoritmi aiutano a selezionare i candidati al lavoro, gli elettori da prendere di mira nelle campagne politiche e persino le persone fino ad oggi. Sia le imprese che i legislatori devono garantire che non vengano manomessi. E tutti noi dobbiamo essere consapevoli di ciò che sta accadendo, così possiamo avere voce in capitolo. Io, per esempio, dopo aver visto come i progressisti assegneranno allegramente pregiudizi anche ad algoritmi che chiaramente non possono averne, ho iniziato a mettere in discussione la visione ortodossa dei pregiudizi umani. Siamo davvero così profondamente e irrimediabilmente razzisti e sessisti come affermano? Penso di no.
Pedro Domingos è professore emerito di informatica e ingegneria all'Università di Washington.
[…] Leggi l'articolo originale […]
Secondo me, dopo aver disattivato Internet (presto), si riavvierà con GPT e Bard, ecc. al., come le nostre nuove e uniche opzioni del motore di ricerca. Cioè, saremo nutriti con tutto ciò che vogliono che sappiamo e solo ciò che vogliono che sappiamo. Andato sarà "ora sei libero di muoverti nella cabina". Uffa. Ricorda questo? “Quando usi Google, ottieni più di una risposta? Certo che lo fai. Beh, questo è un bug. Abbiamo più bug al secondo nel mondo. Dovremmo essere in grado di darti la risposta giusta... Per saperne di più »
Adoro questa affermazione, "algoritmi che sono matematicamente incapaci di bias". Gli algoritmi sono codici creati dalle librerie tecnologiche. Naturalmente sono capaci di pregiudizi. Farei un ulteriore passo avanti dicendo che l'intero scopo dell'IA e degli algoritmi in generale è che i loro creatori ci guidino verso la loro unica regola, un punto di vista, una risposta proficua e accettabile. In termini di acquisti, ovviamente dirigeranno i nostri soldi dove desiderano che vadano. Non spenderebbero miliardi per tutto questo a meno che non ottengano una ricompensa in denaro. Se le IA fossero davvero imparziali, niente di tutto questo... Per saperne di più »
[…] I liberali militanti stanno politicizzando […]