Il "lungo termine" e l'"altruismo effettivo" sono i nuovi volti del transumanesimo

Per favore, condividi questa storia!
“I pazzi gestiscono davvero il manicomio, e se osassi denunciare la loro follia, ti faranno indossare una camicia di forza e iniettarti dei tranquillanti. È passato molto tempo per rubare le chiavi e scappare da questo manicomio. E se c'è ancora un po' di spirito in noi, lasceremo il manicomio che brucia dietro di noi. – Joe Allen ⁃ Redattore di TN

I futuristi non si limitano a prevedere gli eventi imminenti. Cercano anche di modellarli. Ogni previsione è strutturata per determinare un cambiamento in una certa direzione, sia con audaci promesse che con profezie apocalittiche.

Ad esempio, quando senti avvertimenti che l'intelligenza artificiale potrebbe superare in astuzia l'umanità e distruggerci tutti, o più precisamente, se credi a queste affermazioni, non c'è altra scelta che ripensare la tua strategia a lungo termine. Forse distruggi preventivamente le macchine. O forse insegni all'intelligenza artificiale a essere gentile e poi inceppi un Neuralink nel tuo cervello per tenere il passo con la conversazione.

Nella misura in cui le nostre decisioni immediate sono guidate da questi futuri immaginati, siamo tutti strumenti inconsapevoli del futurista.

Dopo lo spettacolare crollo dell'exchange di criptovalute FTX, le filosofie gemelle di "altruismo effettivo" e "lungo termine" hanno invaso la coscienza pubblica. Come un'infestazione di termiti eusociali, una volta che noti il ​​primo efficace altruista che striscia per casa, inizi a vederli ovunque.

L'altruismo efficace è un movimento accademico testa d'uovo focalizzato sull'aiutare un gran numero di persone, o forse tutte le entità coscienti, su scala globale. Una proposta popolare è quella di accumulare quanto più denaro possibile, quindi darlo in beneficenza. Queste strategie spesso si basano sul tipo di calcoli elaborati e quadri etici contorti che solo gli "esperti" potrebbero inventare.

Il lungo termine prende questa palla benefica e corre con essa nel lontano futuro. I suoi sostenitori immaginano come le nostre azioni altruistiche oggi potrebbero giovare a tutte le menti coscienti che alla fine verranno a esistere. In teoria, ciò include innumerevoli trilioni di esseri umani che vivono nello spazio, oltre a caricamenti mentali e robot di intelligenza artificiale che vivono in vaste simulazioni digitali.

Potresti avere problemi oggi. Ma se vogliamo essere seri riguardo all'utilitarismo, la massima priorità morale appartiene a tutti gli invasori spaziali cyborg che devono ancora esistere. Mi dispiace, ma alla fine ce ne sono più di te.

In pratica, queste filosofie sembrano implicare molti segnali di virtù e spesa di denaro altrui. Il frontman grasso e sciatto degli FTX Sam Bankman-Fried proiettato queste ideologie altruiste come cortina fumogena per il suo schema Ponzi crittografico, dove lui defraudato investitori di miliardi. Bankman-Fried ha assicurato ai suoi clienti, e al mondo, che avrebbe usato i suoi giganteschi profitti per aiutare a salvare l'umanità da la prossima pandemia o una guerra nucleare, o entrambe.

Invece, ha speso tutti i soldi in ville e altri lussi, ha perso tempo con i videogiochi, ha distrutto il suo cervello con farmaci esotici per il potenziamento cognitivo e apparentemente ha ospitato strane orge dei ripugnanti nuovi ricchi. Il lato positivo è che il suo esilarante scandalo ha fatto luce sui movimenti intellettuali che lo hanno generato, smascherando l'arroganza delirante che è alla base dell'effettivo altruismo, del lungo termine e della maggior parte delle teorie elitarie.

Come ho già detto, entrambe le scuole filosofiche lo sono utilitario. I sostenitori cercano di massimizzare la felicità per il maggior numero di persone - o in versioni più universali, il maggior numero di esseri senzienti - inclusi tutti gli animali e le future menti digitali. Simile all'antica credenza che gli dei richiedano il sangue per far crescere i raccolti, tuttavia, ammettono che devono essere fatti sacrifici. Come la New York Times scrittore Walter Duranty detto della collettivizzazione comunista nel 1933, "Per dirla brutalmente, non puoi fare una frittata senza rompere le uova".

Come esempio ipotetico, se volessi fermare una pandemia mortale, allora per il bene di tutta l'umanità dovresti rinchiudere nelle loro case coloro che rifiutano il vaccino. Se continuassero a sgattaiolare fuori, manderesti i poliziotti a picchiarli a morte o forse li rinchiuderesti nei campi di quarantena. Quando la spinta arriva ai colpi forzati, uccidili tutti con gentilezza.

Di maggiore interesse, entrambe le filosofie si sovrappongono e derivano anche dal transumanesimo, quel famigerato tecno-culto i cui membri credono che gli umani saranno come dei fondendosi con le macchine. L'Università di Oxford è stata il crogiolo dell'altruismo effettivo e del lungo termine, dove il filosofo ben pagato e dichiarato transumanista Nick Bostrom ha avuto un impatto decisivo sul movimento.

Bostrom è meglio conosciuto per aver avvertito che l'intelligenza artificiale è un "rischio esistenziale" per l'umanità nel suo libro del 2014 Superintelligenza: Percorsi, Pericoli, Strategies. Le sue idee erano enormemente influente sul transumanista più ricco del mondo, Elon Musk, che suggerisce di impiantare interfacce cervello-computer per tenere il passo con l'intelligenza artificiale.

Bostrom è anche membro fondatore del Future of Humanity Institute, con sede a Oxford, a cui appartiene Musk donato 1 milione di sterline. I futuristi possono sempre usare più soldi per salvarci dai futuri che stanno prevedendo.

Questa transizione dell'élite dal tecno-ottimismo all'altruismo corporativo imbiancato è subito evidente nelle agende globali fissate al World Economic Forum. Nel 2016, il presidente del WEF Klaus Schwab ha pubblicato La quarta rivoluzione industrialein cui ha annunciato la "fusione dei mondi fisico, digitale e biologico".

Quattro anni dopo, il suo tratto ripugnante Il grande reset ha identificato la pandemia di COVID-19 come una "opportunità senza precedenti" per accelerare questa rivoluzione tecnologica. Naturalmente, le persone normali in tutto il pianeta erano furiose. Così, nel dicembre del 2021, Schwab ha rassicurato tutti sulle buone intenzioni delle élite con un volume successivo intitolato La grande narrativa.

"Questa narrativa emergente è molto utile perché mostra che questa capacità di prendersi cura", ha scritto lui e il suo coautore, "può essere sfruttata per il bene sociale".

Per dirla in altro modo, il tuo cuore sanguinante può essere usato come una batteria per alimentare la Macchina.

Longtermismo e altruismo effettivo è apparso per la prima volta sul mio radar lo scorso agosto, quando Elon Musk ha citato su Twitter un plug-in per il libro di prossima uscita di William MacAskill Cosa dobbiamo al futuro"Sostiene il lungo termine", ha scritto il filosofo di Oxford, "l'idea che influenzare positivamente il futuro a lungo termine sia una priorità morale fondamentale del nostro tempo". Per inciso, anche MacAskill lo era un mentore a Bankman-Fried, e consigliò FTX sulla mistica via dell'effettivo altruismo.

"Da leggere", ha risposto Musk, interrompendo le sue solite autodescrizioni vaghe. "Questa è una corrispondenza ravvicinata con la mia filosofia."

In un lampo, l'ultima intervista di Musk a TED ha avuto molto più senso. "SpaceX, Tesla, Neuralink e The Boring Company sono filantropia", ha insistito.

Tesla sta accelerando l'energia sostenibile. Questo è amore: filantropia. SpaceX sta cercando di garantire la sopravvivenza a lungo termine dell'umanità con una specie multipianeta. Questo è amore per l'umanità. Sai, Neuralink sta cercando di aiutare a risolvere le lesioni cerebrali e il rischio esistenziale con l'intelligenza artificiale. L'amore per l'umanità.

Perché ha comprato Twitter? "Penso che il rischio di civiltà diminuisca quanto più possiamo aumentare la fiducia di Twitter come piattaforma pubblica", ha risposto.

Subito dopo il tweet sulla "filosofia personale" di Musk, gli algoritmi di Twitter mi hanno fatto conoscere il lavoro di Émile Torres. Questa persona potrebbe trovarsi all'estrema sinistra dello spettro politico, ma ammetterò prontamente che Torres è uno scrittore eccellente. Gli articoli del filosofo in Eone spettacolo esporre le idee di base del lungo termine, che Torres definisce "il credo secolare più pericoloso del mondo". Come ex esperto di lunga data che ha lasciato il movimento con disgusto, Torres lo saprebbe.

Questo pazzo treno futurista parte in una stazione tranquilla dove tutti lavorano per aumentare la felicità generale e diminuire la sofferenza, sempre guardando a lungo termine. Più andiamo avanti, però, ruggendo tra armi biologiche genocide e terminatori robotici - insieme alle soluzioni proposte a questi eventi a livello di estinzione - la ricerca del benessere va fuori dai binari.

"Il lungo termine potrebbe essere una delle ideologie più influenti di cui poche persone al di fuori delle università d'élite e della Silicon Valley abbiano mai sentito parlare", ha scritto Torres in Aeon. “Il fatto cruciale che manca ai longtermists è questo è molto più probabile che la tecnologia causi la nostra estinzione prima di questo lontano evento futuro piuttosto che salvarci da esso."

Torres è così azzeccato qui, sono propenso a ignorare quei fastidiosi pronomi "loro/loro" nella biografia di Twitter. Tali litigi quotidiani sembrano meschini di fronte a una tecno-distopia disfunzionale.

https://twitter.com/xriskology/status/1592115774302584834?s=20&t=JX0g8yElcBj_x7rCizt0pw

Come abbiamo appreso dalla recente follia della pandemia, la "cura" è spesso peggiore della malattia. È la differenza tra tossire nella manica e indossare tre mascherine per andare a prendere il decimo booster. Il lungo termine e l'effettivo altruismo sono incarnazioni comiche di tali estremi. Iniziano con alcune zanzariere per i bambini che muoiono di fame in Africa e finiscono con l'onniveggenza polvere intelligente riunirsi sotto il tuo letto.

Per illustrare, Nick Bostrom ha sostenuto per un sistema di sorveglianza globale inevitabile, che coinvolge ogni cittadino che indossa "tag della libertà" che alimentano "stazioni patriote" in modo che i governi possano identificare potenziali minacce a livello di estinzione, come la superintelligenza artificiale illecita o sciami di nanobot appiccicosi grigi fabbricati nel seminterrato. E aveva appena iniziato.

In Superintelligenza, Bostrom ha lanciato un curioso piano a lungo termine per aumentare il QI medio e ridurre la stupidità umana: fertilizzare un esercito di feti in vitro, schermare i loro codici genetici, selezionare gli esemplari supremi, impiantarli in donne reali o gestirli in massa in grembi artificiali, e quindi gettare gli scarti nei bidoni dei rifiuti organici. Non sembra mai preoccuparsi di generare una nidiata di sociopatici privi di emozioni, ma forse è questo il punto.

Vuoi delle omelette? Meglio andare a rompere delle uova.

Vediamo già simili programmi eugenetici in corso nel movimento pronatalista ossessionato dall'intelligenza. Sam Altman, il magnate della tecnologia gay che ha co-fondato OpenAI con Elon Musk, ha investito nella società Genomic Predictor, che esclude gli zigoti indesiderati, e un'altra chiamata Conception. Secondo un affascinante Business Insider esposto, quest'ultima startup "progetta di far crescere ovuli umani vitali da cellule staminali e potrebbe consentire a due maschi biologici di riprodursi".

Seguendo linee simili, Vitalik Buterin (il co-fondatore della criptovaluta Ethereum, un notevole booster FTX, e ancora un altro nodo nel movimento dell'effettivo altruismo) recentemente suggerito che i bambini dovrebbero essere gestati in bio-sacchi di plastica per salvaguardare i diritti delle donne:

Le disparità nel successo economico tra uomini e donne sono molto maggiori una volta che il matrimonio + i figli entrano in scena. Gli uteri sintetici eliminerebbero l'elevato onere della gravidanza, riducendo significativamente le disuguaglianze.

Su una linea temporale abbastanza lunga - e con capitale sufficiente per guardarsi l'ombelico ininterrottamente - i longtermisti e gli altruisti efficaci potrebbero escogitare il piano suicida definitivo per eliminare il dolore. Hanno già un discreto inizio di corsa.

Qualche anno fa, William MacAskill sosteneva “Per porre davvero fine alla sofferenza degli animali, la scelta più etica è uccidere i predatori selvaggi (soprattutto Cecil il leone).” Suonando come un buddista di periferia che ha un brutto viaggio acido, il magro vegetariano ha elaborato:

Uccidendo i predatori, possiamo salvare le vite di molti animali da preda come gnu, zebre e bufali nell'area locale che altrimenti verrebbero uccisi. … E non c'è motivo per considerare le vite dei predatori come i leoni più importanti delle vite delle prede.

Non è difficile immaginare che questa campagna di sterminio si estenda ai maschi umani iperaggressivi. Oppure, con i progressi nei gameti derivati ​​dalle cellule staminali, potresti eliminare del tutto i maschi. Finché filosofeggiamo, però, perché non applicare questo standard ai filosofi autistici? Se mai conquistassero il mondo, per esempio attraverso un'infrastruttura tecnologica globale, causerebbero molte più sofferenze di qualsiasi predatore selvaggio.

Gran parte del pensiero di MacAskill e l'effettivo altruismo nel suo insiemeChe cosa ereditato dal filosofo Peter Singer. Nei primi anni '90, Singer notoriamente sostenuto che i bambini, in particolare i disabili, sono un facile bersaglio per l'aborto fino a trenta giorni dopo la nascita. La premessa era che ciò avrebbe ridotto la sofferenza sia dei genitori sovraccarichi che dei loro figli potenzialmente ritardati. È solo una questione di calcolo morale.

Respingendo ogni considerazione per il sacro o il profano, la filosofia di Singer munge la gentilezza umana per tutto ciò che vale, per quanto aspro possa essere quel latte. Se non stiamo uccidendo bambini deformi e vecchi inutili, per il loro bene, dovremmo liberare gli animali della fattoria.

"L'unico punto di arresto giustificabile per l'espansione dell'altruismo è il punto in cui tutti coloro il cui benessere può essere influenzato dalle nostre azioni sono inclusi nella cerchia dell'altruismo", ha scritto nel suo libro del 1981 Il cerchio in espansione"Ciò significa che dovrebbero essere inclusi tutti gli esseri con la capacità di provare piacere o dolore".

Oggi, mentre la quarta rivoluzione industriale si dispiega in tutto il pianeta, Singer ha esteso il suo estremismo altruistico anche alla vita artificiale. Lui di recente ha spiegato questa posizione su a Big Pensare episodio:

Se creassimo robot che sono al nostro livello, allora penso che dovremmo concedere loro, davvero, gli stessi diritti che abbiamo noi. Non ci sarebbe alcuna giustificazione per dire: "Ah sì, ma noi siamo una creatura biologica e tu sei un robot". Non credo che abbia nulla a che fare con lo status morale dell'essere.

Ricapitolando, i neonati meritano uno status morale inferiore rispetto agli animali da fattoria, mentre i robot meritano diritti umani. Non puoi fermare il progresso!

Per quanto riguarda il valore morale delle menti artificiali, MacAskill fa argomenti simili. Nel suo articolo del 2021 “Il caso per un forte lungo termine”, coautore con Hilary Greaves per il Global Priorities Institute, stima che la “senzienza digitale” dovrebbe espandere esponenzialmente il pool di menti future, raggiungendo un massimo di circa 10^45—o un quattuordecillion—di anime digitali che si espandono attraverso la Via Lattea.

Se soppesi questo futuro cibernetico sovrappopolato rispetto ai nostri bisogni e desideri di oggi, questa è un'intera preoccupazione morale.

“Supponendo che in media le persone abbiano vite di benessere significativamente positivo”, scrivono MacAskill e Greaves, “secondo un utilitarismo totale l'esistenza dell'umanità è significativamente migliore della sua non esistenza, in un dato momento. Combinando questo con il fatto che entrambi gli stati sono persistenti, l'estinzione umana prematura sarebbe astronomicamente negativa.

L'implicazione è orribile. Se il nostro scopo morale è quello di beneficiare il maggior numero di esseri possibili, allora è nostro dovere morale evitare l'estinzione - come impatti di asteroidi o superintelligenza artificiale maligna - con ogni mezzo necessario.

Portato alla sua logica conclusione, tale ragionamento morale giustificherebbe qualsiasi cosa, dall'affamare le popolazioni odierne per nutrire la Macchina per le future menti digitali, allo spazzare via le masse accalcate che sono troppo stupide per capire quanto sia davvero importante questa Macchina.

Dopotutto, quanto valgono gli 8 miliardi di dumdum che vivono oggi se confrontati con il quartetto di miliardi anime digitali che devono ancora nascere?

Vuoi colonizzare la galassia o no?

Ziggy Stardust e i ragni che hanno colonizzato Marte

Il tracollo del mercato di FTX, unito alla retorica moralistica di Sam Bankman-Fried, ci dà qualche indicazione di dove il lungo termine e l'effettivo altruismo possono portarci come filosofie dominanti. Prima di tutto, vediamo quanto sia insulsa tutta questa segnalazione di virtù aziendale. Mentre la tempesta di fuoco stava crescendo, Bankman-Fried lo era chiesto tramite SMS da un Vox intervistatore: chi è lei stessa un'efficace altruista- se "l'etica" è "principalmente una facciata". Lui ha risposto:

Voglio dire, non è *tutto*

ma è molto

Ha continuato spiegando:

è ciò di cui è fatta la reputazione, in una certa misura

mi sento male per quelli che se ne fanno fottere

con questo gioco stupido abbiamo svegliato gli occidentali giocando dove tutti diciamo le parole giuste e quindi piacciamo a tutti

La seconda cosa che ci mostra la debacle di FTX, introducendo nella coscienza pubblica il lungo termine e l'effettivo altruismo, è quanto sia pervasivo questo tipo di ideologia tra le nostre élite tecnologiche, accademiche ed economiche. Cultura "svegliata", follia covidiana, filantropia radicale: è tutto un nuovo giro di un'antica truffa:

“Se non obbedisci ai Poteri Costituiti, devi essere una persona egoista. In effetti, non sei affatto una "persona".

Infine, questo scandalo mette a nudo quanto facilmente le nostre élite siano realmente ingannate e quanto credano che siamo stupidi. FTX è stato pubblicizzato da tutti da Sequoia Capital e affermati professori di Oxford come tramogge dell'isola Bill Clinton e Tony Blair. Anche se le bugie si svelano davanti ai nostri occhi, il New York Times e la Wall Street Journal continuano a far girare l'intera faccenda come una serie di sfortunate decisioni aziendali. Attualmente, Bankman-Fried lo è ancora programmato per parlare al NYT DealBook Summit insieme a Janet Yellen, Mark Zuckerberg e Volodymyr Zelensky.

I pazzi gestiscono davvero il manicomio, e se osate denunciare la loro follia, vi faranno indossare una camicia di forza e iniettarvi dei tranquillanti. È passato molto tempo per rubare le chiavi e scappare da questo manicomio. E se c'è ancora dello spirito in noi, lasceremo il manicomio che brucia dietro di noi.

Informazioni sull'editor

Patrick Wood
Patrick Wood è un esperto importante e critico in materia di sviluppo sostenibile, economia verde, agenda 21, agenda 2030 e tecnocrazia storica. È autore di Technocracy Rising: The Trojan Horse of Global Transformation (2015) e coautore di Trilaterals Over Washington, Volumes I e II (1978-1980) con il compianto Antony C. Sutton.
Sottoscrivi
Notifica
ospite

5 Commenti
il più vecchio
Nuovi Arrivi I più votati
Feedback in linea
Visualizza tutti i commenti

[…] Leggi l'articolo originale […]

Dalia Leton

“Perché ha comprato Twitter? "Penso che il rischio di civiltà diminuisca quanto più possiamo aumentare la fiducia di Twitter come piattaforma pubblica", ha risposto.

In altre parole, un vaso di miele per la libertà di parola. Consenti la libertà di parola e insegui gli oratori. Facile.

Stanno salvando la LORO civiltà, non quella in cui vivi... o in cui hai/hai vissuto.

[…] 'Longtermism' e 'Effective Altruism' sono i nuovi volti del transumanesimo […]