Chi vuole un'interfaccia Brain Machine, comunque?

Per favore, condividi questa storia!
Un'analisi approfondita dell'etica associata alle interfacce cervello-macchina (BMI) che manca nel settore stesso. In generale, gli studi etici in genere non esistono nell'industria Technocrat/Transumanista perché ostacola il loro progresso tecnologico. I tecnocrati inventano perché possono, non perché c'è una comprovata necessità di farlo.⁃ TN Redattore

Non ho mai voluto essere in grado di controllare nessuno dei miei dispositivi con i miei pensieri. Sono perfettamente felice di utilizzare un'interfaccia fisica che posso spegnere, lasciare andare o allontanarmi. E tu? La tua tastiera ti trattiene? Il tuo mouse ti sta rallentando? Vuoi solo pensare a un post senza doverlo sfogliare? Perché la tecnologia cyborg viene spinta così duramente su di noi?

Qualcuno l'ha chiesto? Qualcuno ne ha bisogno?

In questo saggio, esaminerò gli esperti di etica che stanno sollevando preoccupazioni sulla tecnologia Brain Machine Interface (BMI), la cui utilità prevista sarebbe la capacità di scorrere con la mente e fare clic con le onde cerebrali. Francamente, non vedo una richiesta per questo, nemmeno per le persone paralizzate, dal momento che abbiamo interfacce prive di chirurgia cerebrale, come quelle usate da Stephen Hawking. Inoltre, vogliamo davvero che i nostri tweet di rabbia impulsiva vengano inviati all'istante?

No, no, no. Non è lì che sta andando questa tecnologia. Nessuno vuole che il BMI svolga compiti ordinari in un modo nuovo, soprattutto se ciò significa indossare uno strano casco tutto il giorno o sottoporsi a un intervento chirurgico al cervello. La carota e il bastone qui sono la promessa di migliorata capacità mentali.

Sembra che ci sia una campagna di paura coordinata per convincerci che, da un momento all'altro, le legioni di cyborg AI transumane supereranno le nostre prestazioni mentali. Quindi tutti dovranno ottenere un indice di massa corporea solo per tenere il passo. Sfortunatamente, quando lo faremo, i nostri cervelli saranno leggibili da chiunque disponga del software giusto e non saremo in grado di distinguere tra le nostre decisioni e quelle impiantate nelle nostre teste tramite dispositivi wireless.

I neuroetici lo suggeriscono dobbiamo agire in fretta, magari anche riscrivere le nostre Costituzioni!

Trovo che i loro nuovi suggerimenti sui neurodiritti siano progettati, non tanto per proteggerci quanto per limitare i modi in cui potremmo essere violati per il bene superiore. I neuroeticisti sono lupi travestiti da agnello. Vediamo se sei d'accordo con la mia valutazione.

Per un contesto più ampio, diamo prima un'occhiata a ciò che è noto come il "problema del carrello" nel campo dell'etica. Supponiamo che un uomo stia azionando la stazione di scambio in un deposito ferroviario. Se un carrello ferroviario in fuga sta per arare cinque lavoratori su un binario, è moralmente obbligato a tirare la leva per deviare il carrello in modo che uccida un solo lavoratore su un altro binario?

Potresti notare che ho apportato una modifica significativa all'immagine standard, questa è stata sollevata da wikipedia, raffigurante questo dilemma. Il mio centralino non agisce sotto la sua agenzia. È un rappresentante del governo, che agisce secondo una politica o una procedura standard. Ecco perché è raffigurato con un edificio governativo alle sue spalle. Questo cambiamento cambia tutto. Secondo il protocollo, deve uccidere un tizio per salvarne cinque.

Ma quando le azioni sono automatizzate, non c'è agenzia e, quindi, ciò che l'uomo fa non può essere descritto come la scelta di agire eticamente. Gli esperti di etica dei vecchi tempi, ad esempio Tommaso d'Aquino o Kant, sostenevano che la moralità scaturisce dall'agente che liberamente decide l'azione, ma oggi, l'idea che un individuo ha la responsabilità (non la libertà, non il diritto, ma il responsabilità) scegliere tra giusto o sbagliato è quasi scomparso dalla discussione sull'etica.

Jose Munoz è con il gruppo Mind-Brain in Spagna, è anche all'Harvard Medical e in pochi altri posti davvero importanti. Revisione il lavoro di una collega, Nita Farahany, riassume l'approccio dei neuroeticisti di oggi a un T. Sostiene che dobbiamo "stabilire linee guida per i diritti neurali". (Linee guida, sembra gentile, ma mi chiedo se avranno il tipo di potere delle linee guida CDC, che sono state implementate con tutta la forza della legge).

Munoz dice che ci deve essere discussione tra accademici, governi, aziende e il pubblico. (Mi chiedo chi parlerà nella discussione?) Dice che ai "cittadini" deve essere garantito l'accesso ai loro dati. (Va bene, devo fare i salti mortali per scoprire quali dati sono stati raccolti su di me a mia insaputa o senza il mio consenso, e poi cosa?)

Noto l'uso della parola “cittadini” invece di esseri umani or persone.

Non vuole che dimentichiamo che, come cittadini, lo siamo soggetti di uno stato. Crede inoltre che "un'alfabetizzazione attorno a tali dati debba essere coltivata", che è un modo da donnole per dire alle persone che devono sapere cosa pensare della raccolta dei dati.  Quando è stato chiesto alle persone di acconsentire alla raccolta dei dati? La possibilità di rifiutare di consentire in qualsiasi dati da raccogliere affatto non è in questo menu di politiche etiche.

Al giorno d'oggi, gli esperti di etica sembrano semplicemente presumere che alla fine lo stato debba prendere quelle decisioni sull'etica, basate sul consenso, ovviamente. Quindi va bene perché è un democratico perdita di rappresentanza. Presto l'intelligenza artificiale ottimizzerà queste decisioni per noi, ci viene detto. Il singolo essere umano è diventato un mero strumento attraverso il quale vengono eseguite le scelte “etiche” di qualcun altro. Questo non è etico. Questo è pericoloso.

Possiamo adattare il problema del carrello alla questione se l'individuo debba o meno fare sacrifici personali per il bene della società. L'illustrazione qui sotto mostra il tipo di logica che dice che le persone dovrebbero rischiare la vita in guerra per il bene del loro paese, o prendere un vaccino che comporta qualche rischio perché è necessario per l'immunità di gregge.

 

In questo saggio, non sosterrò che l'individuo ha il destra essere egoista e decidere di non fare sacrifici personali per il presunto bene degli altri. Non è per questo che dobbiamo dare valore alla responsabilità individuale rispetto al bene collettivo. Apprezziamo la responsabilità individuale perché, se gli individui sono costretti, costretti o corrotti a fare sacrifici per il bene collettivo, c'è un grave pericolo che l'entità che ha il potere di imporre la politica possa usare quel potere per danneggiare, involontariamente o intenzionalmente.

Almeno quando viene concessa la responsabilità individuale, più cervelli vengono applicati ai problemi e ci saranno più opportunità per trovare buone soluzioni. Vogliamo davvero fare la guerra? I vaccini sono davvero sicuri ed efficaci? Inoltre, gli errori an individuale possono fare sono solitamente confinati in un piccolo cerchio. Gli errori A politico colpisce l'intera popolazione.

Dopo un incubo di tre anni, in cui Gli errori non sono stati fatti- per fare riferimento a Margaret Anna Alice poesia con quel titolo, accusando i "filantropati" e altri leader di democidio intenzionale, dovremmo essere scettici nei confronti di eventuali "eticisti" che chiedono maggiori sacrifici da parte nostra per promuovere le nozioni di un bene superiore da parte dei politici. Per quanto riguarda la C0vlD, si sta sviluppando il consenso sul fatto che abbiano sbagliato tutto: i blocchi, il mascheramento e l'isolamento, il rifiuto del trattamento precoce e i farmaci riproposti e la promozione di un vaccino sperimentale.

Ultimamente, si sente molto parlare della necessità di ridefinire i diritti umani mentre il panorama sociale si adatta alle nuove tecnologie che stanno cambiando ciò che significa essere umani. Si afferma che è necessaria una nuova "etica del transumanesimo" per salvarci dai pericoli di hacker o governi e società che potrebbero voler impiegare l'intelligenza artificiale per leggere i nostri pensieri e controllare le nostre menti.

Ienca e Andorno, autori di "Towards a New Human Rights in the Age of Neuroscience and Neurotechnology", notano quante informazioni vengono raccolte sugli utenti di Internet ora, e presumono che la nuova tecnologia raccoglierà anche dati sul cervello. Questi sono i tipi di considerazioni etiche su cui meditano:

“Per quali scopi e in quali condizioni è possibile raccogliere e utilizzare le informazioni cerebrali? Quali componenti delle informazioni cerebrali devono essere legittimamente divulgate e rese accessibili ad altri? Chi può accedere a tali dati (datori di lavoro, assicurazioni, Stato)? Quali dovrebbero essere i limiti al consenso in questo ambito?”

Non menzionano nemmeno l'argomento più ovvio che in qualsiasi la raccolta di dati online potrebbe essere considerata una violazione della privacy. Stranamente, il primo diritto di cui discutono in questo documento è il diritto degli individui a decidere di farlo uso neurotecnologie emergenti. Nelle loro discussioni, si presume anche che le nuove tecnologie faranno ciò per cui sono pubblicizzate. Nessuna discussione sulla necessità di studi a lungo termine o test per possibili errori tecnologici. Ricordiamo che l'Autorizzazione all'Uso d'Emergenza del vaccino contro la COvld era giustificata perché si diceva così le persone dovrebbero avere il diritto di utilizzare la tecnologia non testata se vogliono.

Nella sua discussione sui neurodiritti promossi in Cile, Whitney Webb note che i poveri e i diseredati vengono introdotti in prima linea nella linea di volontari per il processo BMI.

Mi capita di pensare che gli adulti dovrebbero essere in grado di optare per nuove terapie, possibilmente pericolose, ottenere protesi mammarie doppia D, suicidarsi, fare eroina, lavorare come prostitute o castrarsi, se lo desiderano liberamente. Ma non credo sia etico incoraggiare o consentire a qualcuno di commettere atti di autolesionismo. Una società etica generalmente cerca di aiutare le persone a capire che potrebbero avere altre opzioni. Non vogliamo incoraggiare le persone a correre rischi, certamente non inutili.

Ienca e Andorno ci informano anche che…

La maggior parte dei diritti umani, compresi i diritti alla privacy, sono relativi, nel senso che possono essere limitati in determinate circostanze, a condizione che alcune restrizioni siano necessarie e rappresentino un modo proporzionato per raggiungere uno scopo legittimo. Trattandosi specificamente del diritto alla privacy, la Convenzione europea dei diritti dell'uomo afferma che tale diritto ammette alcune restrizioni «per la prevenzione di disordini o reati, per la protezione della salute o della morale, o per la protezione dei diritti e delle libertà altrui ' (art. 8, comma 2).”

Sembra che gli europei non abbiano diritti alla privacy; hanno privilegi che possono essere revocati ogni volta che lo Stato lo ritenga necessario.

È risaputo che il milionario Elon Musk, rinunciando alle sue pretese di libertarismo, vuole che i regolamenti governativi sull'IA, anche se sta pubblicizzando la sua invasiva tecnologia di intelligenza artificiale Neuralink, vengano impiantati irreversibilmente nei cervelli umani per poterli leggere. Finora i primati di prova non se la sono cavata così bene, e l'autunno 2022 Mostra e racconta era deludente all'estremo. Un problema, tra i tanti che hanno avuto, è stato che gli schemi delle onde cerebrali del primate per una particolare lettera che l'IA ha appreso un giorno, si sono trasformati in uno schema diverso cinque o sei giorni dopo.

Molto tempo fa, Eraclito aveva già capito che non si entra mai due volte nello stesso fiume. Tutti i processi biologici sono dinamici e sempre in movimento, specialmente le onde cerebrali emergenti; devono esserlo perché anche il mondo lo è. Gli esseri viventi devono continuare a cambiare solo per rimanere più o meno gli stessi. Gli algoritmi informatici, nemmeno quelli di Deep Learning, non sono plastici come le onde cerebrali.

Dai tempi di quell'imbronciato Show & Tell, Neuralink è stato negato permesso di predare soggetti umani, per il momento. Ma dubito che ciò impedirà ai soldi cattivi che sono stati lanciati in questa tecnologia di attrarre altri soldi buoni. Gli investitori devono recuperare i soldi della loro pompa prima di scaricare. La FDA arriverà.

Non sono contrario al progresso tecnologico transumano che aiuta le persone a superare le difficoltà. Le braccia bioniche sono fantastiche e persino la rigenerazione degli arti sembra un'ottima idea da perseguire, con attenzione. Ma qualcosa non va in questa discussione sulla tecnologia dell'IMC e sui neurodiritti.

Quest'anno, Nita Farahany, professoressa di diritto e filosofia e autoproclamatasi nueroetica alla Duke University, ha promosso il suo nuovo libro, La battaglia per il tuo cervello: difendere il diritto di pensare liberamente nell'era della neurotecnologia, che non difende nulla del genere. In questo libro, non fornisce una guida per aiutare le persone a prendere le migliori decisioni etiche per se stesse e le loro famiglie. Sta cercando di vendere norme etiche per essere imposto su tutti noi.

Nel suo libro, e in a parlare in una riunione del World Economic Forum a Davos, Farahany si esprime con una lingua biforcuta. Ad esempio, pur difendendo inizialmente l'idea di privacy mentale e "libertà cognitiva" (Oh, fratello, devono inventare nuovi termini così imbarazzanti?), ammette rapidamente che non è un diritto assoluto, perché, dopo tutto, una delle cose più basilari che facciamo come esseri umani è cercare di capire cosa pensano i nostri simili. Dobbiamo trovare un equilibrio, sostiene Farahany, tra interessi individuali e sociali. Ciò significa che i responsabili politici possono decidere a quali diritti rinunciare.

Ad esempio, afferma che potrebbe essere una buona idea far indossare ai camionisti dispositivi EEG per monitorare la fatica, per il bene collettivo. Se si addormentano al volante, potrebbero potenzialmente uccidere cinque o sei persone. Posso suggerire invece che i camionisti siano pagati abbastanza bene per il lavoro che svolgono, in modo che non vogliano guidare più di otto ore al giorno? In alternativa, possiamo sottoporre i nostri rappresentanti politici a una sorveglianza costante di tutte le loro e-mail, telefonate e persino conversazioni di persona? Perché le loro decisioni potrebbero potenzialmente uccidere milioni di persone.

Farahany elogia i dispositivi personali che monitorano i dati biologici per il loro potenziale di fornire ai lavoratori dati quantitativi sulle loro prestazioni in modo che possano fare "auto-miglioramenti informati". Il fatto che FitBits sia così popolare, afferma, indica che le persone sono entusiaste di essere monitorate e valutate. Ma sono abbastanza sicuro che i magazzinieri di Amazon non chiedano a gran voce dispositivi di neurofeedback che li aiuteranno a essere più redditizi per gli azionisti.

Il monitoraggio forzato e la valutazione quantitativa fasulla non sono etici, credo.

Farahany ammette che tale monitoraggio dovrebbe essere volontari e ritiene che i dipendenti vorranno accettare questi dispositivi per il miglioramento personale. Oggi abbiamo qualcosa di simile con l'assicurazione auto; le persone ottengono tassi più bassi se accettano di essere monitorati durante la guida. Ma ogni volta che viene offerta una ricompensa per il sacrificio della privacy, non è etico. È coercitivo. È più probabile che i poveri si sottomettano rispetto ai ricchi.

Il monitoraggio delle prestazioni dei dipendenti è utile?

Come Yagmur Denizhan sostiene in "Educazione simulata e tecnologie illusorie", quando le persone vengono messe in situazioni in cui vengono giudicate in base ai punti guadagnati, non in base a valutazioni qualitative più generali e olistiche, i furbi si concentrano rapidamente sul gioco del sistema in modo da poter guadagnare più punti, con meno sforzo e lavoro di qualità inferiore. Ma Farahany non mette mai in discussione il presupposto che sottoporre i dipendenti a feedback negativi e positivi sia positivo per la produttività.

 

Leggi la storia completa qui ...

 

 

 

 

Informazioni sull'editor

Patrick Wood
Patrick Wood è un esperto importante e critico in materia di sviluppo sostenibile, economia verde, agenda 21, agenda 2030 e tecnocrazia storica. È autore di Technocracy Rising: The Trojan Horse of Global Transformation (2015) e coautore di Trilaterals Over Washington, Volumes I e II (1978-1980) con il compianto Antony C. Sutton.
Sottoscrivi
Notifica
ospite

2 Commenti
il più vecchio
Nuovi Arrivi I più votati
Feedback in linea
Visualizza tutti i commenti

[…] Collegamento alla fonte […]

DawnieR

Solo gli zombi li vorranno. Dopotutto, hanno letteralmente schitt per il cervello!

Le persone hanno DAVVERO bisogno di rendersi conto che non tutti sul pianeta Terra sono umani!! Ci sono TRE tipi di Esseri (NON compresi gli animali) che camminano su questa Terra…..

1) UMANI (siamo la MINORANZA)
2) Zombi (NON Umani)
3) Demoni (NON Umani)

Questa è la REALTÀ in cui viviamo! Comprendilo…….SAPERLO!