I veicoli autonomi sono apparentemente di gran moda in molte delle linee tecnologiche odierne. Le aziende tecnologiche come Tesla e Google non si arrenderanno, vero?
Per quel che vale, la probabilità che le cosiddette auto "a guida autonoma" decollino è scarsa. Certo, i magnati della tecnologia dicono che è la prossima grande novità, proprio come il 5G, l'Internet of Things, i "contatori intelligenti" e la moltitudine di altri disastri tecnologici che stanno spuntando in tutto il paese, per lo più finanziati utilizzando fondi pubblici sottratti. Ma perché dovresti credergli? Dato che i veicoli autonomi molto probabilmente necessiterebbero di comunicazioni V2V, o "da veicolo a veicolo", utilizzando onde millimetriche ad alta frequenza, si può affermare con certezza che se troppe di queste mai usciranno sulla strada, sarà nulla ma sicuro.
L'unica cosa reale che i veicoli autonomi hanno per loro è l'ombrello della "sicurezza", che è davvero più un'estensione della nostra stupidità che un punto valido di per sé. Se le persone prestassero attenzione alla strada, le vittime del traffico sarebbero diminuite incredibilmente. Se alcol e telefoni cellulari rimanessero fuori dai veicoli, le autostrade sarebbero un posto molto più sicuro!
I veicoli autonomi sollevano ben più della semplice preoccupazione per la salute. Ci sono serie implicazioni etiche che le persone devono affrontare se vogliono prendere seriamente in considerazione di scatenare questi veicoli di distruzione sulle strade.
Il Media Lab del MIT ha recentemente esplorato alcuni dei dilemmi morali posti dall'intelligenza artificiale, che giocherebbe un ruolo importante nel regno dei veicoli autonomi. Dopotutto, un veicolo autonomo deve essere in grado di effettuare la chiamata quando si tratta della sicurezza dei suoi occupanti e dell'ambiente circostante. Molte domande etiche sono ambigue. Quindi, almeno apparentemente, è anche una delle domande che i ricercatori del MIT hanno esplorato: chi dovrebbe morire in una collisione in cui è coinvolto un veicolo autonomo? In quanto esseri umani, abbiamo una bussola morale che ci guida in questi tipi di dilemmi. L'intelligenza artificiale, non importa quanto "intelligente", scende a 1 e 0 alla fine della giornata e non ha una tale bussola morale. I ricercatori del MIT hanno esaminato se le persone ritenevano che un veicolo autonomo dovesse colpire una persona giovane o anziana per salvare i suoi occupanti.
Secondo ZDNet“Abbiamo concordato in tutto il mondo che risparmiare la vita degli esseri umani rispetto agli animali dovrebbe avere la priorità; molte persone dovrebbero essere salvate piuttosto che poche, e i giovani dovrebbero essere preservati sugli anziani ". Qualcun altro vede un problema, qui?
Patricia Burke lo riassume perfettamente nel suo articolo esplorando questo problema:
Se l'ingegneria dietro le auto a guida autonoma può comportare la possibilità che l'intelligenza di un'auto in carriera decida se colpire l'anziana signora sul marciapiede o il bambino nella carrozza sul marciapiede, dobbiamo tornare al tavolo da disegno. - L '"artificiale" dell'intelligenza artificiale e la "macchina morale" del MIT
Posso capire perché la maggior parte degli umani sarebbe d'accordo che risparmiare la vita degli umani rispetto ad altri animali è fondamentale. È una decisione morale con la quale la maggior parte di noi sarebbe d'accordo. Ma che dire delle affermazioni generiche come "i giovani dovrebbero essere preservati sugli anziani"?
Le risposte a queste domande tendevano ad essere fortemente influenzate culturalmente. Se la gioventù è più apprezzata come cultura dell'età, perché non seguirla? Il problema è che quando si programmano decisioni come queste, non viene fatta alcuna differenziazione. Un veicolo autonomo dovrebbe colpire una persona anziana, anche se è il presidente degli Stati Uniti? Anche se è Paul McCartney? Anche se è tua nonna? I produttori di veicoli a guida autonoma programmeranno alcune "eccezioni" alla lista "no-kill", dicendo in effetti "tutti gli altri sono un gioco leale"? Si tratta di gravi questioni etiche con le quali dobbiamo confrontarci, se necessario in qualsiasi conversazione sul futuro dei veicoli autonomi.
Ecco un'altra domanda: un veicolo autonomo, se costretto a scegliere, dovrebbe decidere di uccidere i pedoni vicini o di uccidere i propri occupanti?
La cultura americana è altamente individualizzata. Come parte della nostra cultura, siamo più egoisti e motivati di quanto non lo siano molte altre culture, in particolare in Europa e in Oriente. Quindi avrebbe senso che il veicolo autonomo agisca per salvare il suo proprietario; sarebbe solo naturalmente, giusto?
Ancora una volta, qui abbiamo un serio dilemma morale. Chi sono gli utenti di veicoli autonomi che affermano che le loro vite sono così importanti che dovrebbero essere risparmiate automaticamente e che chiunque si trova nelle vicinanze deve morire a causa della loro decisione di utilizzare un'auto a guida autonoma?
È egoista è quello che è.
A livello morale, non c'è una risposta giusta a questa domanda. Ma dal punto di vista della giustizia e di "ciò che è giusto", c'è, almeno a questa domanda, una risposta chiara.
Ci sono persone che vogliono auto a guida autonoma e ci sono persone che non lo fanno. In generale, le generalizzazioni sono qualcosa che ci piace evitare, ma come tendenza generale, i giovani tendono a sentirsi più a loro agio con i veicoli autonomi - dopotutto, lasciano già che la tecnologia gestisca (e forse rovini) le loro vite, no?
In altre parole, è più probabile trovare uno studente universitario che vaga per la città in un veicolo autonomo rispetto a un cittadino anziano. Ha senso, vero? I giovani oggi stanno evitando la responsabilità come la peste e hanno abbracciato ogni sorta di tecnologia senza senso e senza scopo e poi ne sono diventati dipendenti. I veicoli autonomi sono un'altra moda di questo tipo che, in tutta praticità, non è diversa. (Ok, ora basta attaccare i giovani.)
Dal punto di vista della giustizia, non ha molto senso programmare veicoli autonomi per prendere di mira astanti o pedoni. Dopotutto, sono completamente innocenti, svincolati dall'intera situazione. Perché dovrebbero essere puniti? Non avrebbe più senso che un'auto a guida autonoma, se non ha alternative, uccida invece i suoi occupanti?
Sembra estremo, stravagante, persino. Certo, naturalmente. Metti da parte l'emozione e pensaci davvero analiticamente: se ci sono persone che sono disposte ad affidare la propria vita a un veicolo autonomo incaricato di prendere decisioni morali che non possono, allora essi dovrebbero essere disposti a pagare il prezzo se hanno, in effetti, mal riposto la loro fiducia.
Perché i passanti o i pedoni innocenti, che forse non hanno mai sostenuto o abbracciato questa tecnologia, dovrebbero essere danni collaterali quando essi ne hai avvertito gli altri da sempre?
Per essere chiari, non lo stiamo sostenendo nessuno dovrebbero morire; sarebbe disumano. Ma la dura realtà della questione è che le persone muoiono e le persone muoiono in incidenti stradali. E, se è necessario fare una scelta, è giusto che le persone che hanno creduto e sostenuto la tecnologia, l'hanno richiesta e acquistata, ne paghino le conseguenze if quando diventa necessario. Ecco, l'ho detto - se sei disposto a fidarti di un veicolo autonomo abbastanza da usarne uno, dovresti essere disposto a essere la prima vittima quando deve essere presa una decisione potenzialmente fatale.
Logicamente, crediamo che questa sia una linea guida perfettamente corretta. Quindi prendi nota dei produttori di veicoli autonomi: se sei così sicuro dei tuoi prodotti, programmali per uccidere i loro proprietari, non spettatori innocenti! Esatto, uccidi i tuoi clienti! (Ovviamente, questo non accadrà mai, perché le persone che producono veicoli autonomi sono egoisti quanto le persone che li usano!)
E anche se non stiamo dicendo che i giovani valgono meno dei vecchi, i giovani cambiano ciclicamente è più probabile che supporti i veicoli autonomi, quindi se uno non funziona correttamente, perché non rivolgersi a un giovane? Le persone anziane non chiedono questa tecnologia; perché dovrebbe essi essere punito quando ha dei difetti?
Non ti piace questo ragionamento? Nemmeno noi - è solo un altro motivo per cui i veicoli autonomi probabilmente non diventeranno mai (e non dovrebbero) diventare realtà.
La guida è, relativamente ad altre cose che facciamo quotidianamente, un'attività incredibilmente pericolosa. Una persona non penserebbe nulla di saltare il marciapiede per evitare di colpire un bambino che si lancia inaspettatamente sulla strada, sarebbe un'auto a guida autonoma. Se pensi che possiamo affidare in modo sicuro, umanamente ed eticamente questa esigente responsabilità a un computer incorporato (che, inevitabilmente, sarà connesso in modalità wireless e incline alla pirateria informatica), allora ripensaci. I computer sono strumenti straordinari e potenti, ma ci sono solo alcune cose nella vita che devi fare da solo.
TE Lawrence (Lui d'Arabia) è stato ucciso sulla sua moto perché ha scelto di sterzare la macchina per evitare di colpire due ragazzi sulle loro biciclette. Un'auto autonoma sarebbe così eroica?