La traiettoria moderna dell'umanità è stata definita da diversi punti di svolta. L'invenzione dell'elettricità, della lampadina, del sistema telegrafico, del computer e di Internet, tra gli altri, ha segnato nuove pietre miliari irreversibili nel nostro modus vivendi. La recente introduzione di ChatGPT potrebbe, tuttavia, rivelarsi più di un punto di svolta. Potrebbe essere una perturbazione permanente del nostro modo di vivere; suo bloopers e I capricci del wokista nonostante.
ChatGPT è ora l'app consumer in più rapida crescita nella storia. Entro due mesi dal suo lancio nel novembre 2022, ChatGPT è riuscito a raccogliere più di 100 milioni di utenti. Il suo sviluppatore OpenAI, che ha iniziato con 375 dipendenti e scarse entrate, è ora valutato $30 miliardi e contando.
Come funziona? In generale, ChatGPT aggrega i dati da fonti online e sintetizza le risposte a una query in pochi secondi. Attualmente è il più versatile di una scuderia di nuovi modelli di linguaggio di grandi dimensioni basati sull'intelligenza artificiale. Può comporre note musicali, scrivere codici software, risolvere equazioni matematiche, scrivere romanzi, saggi e dissertazioni, tra una miriade di altri compiti. Può essere utilizzato dagli scienziati per tradurre i loro lavori originali, scritti in una lingua madre, in inglese. Man mano che gli strumenti di intelligenza artificiale come ChatGPT si evolvono, possono soppiantare l'attività umana in uno spettro ampio, ma incalcolabile. Potrebbero essere in gioco centinaia di milioni di posti di lavoro.
Il suo impatto più immediato, tuttavia, sarà nell'area dell'apprendimento umano e del processo decisionale.
Apprendimento umano
L'apprendimento umano è un processo permanente plasmato da una miriade di fattori. Questi includono (ma non sono limitati a) esperienza, istinto, interazioni, errori (e correzioni), introspezione, angoscia personale, audacia, tutela, dati testuali e psiche individuale. La maggior parte di questi prerequisiti sono estranei a ChatGPT e questo include l'assioma "nessun dolore, nessun guadagno" per l'apprendimento e lo sviluppo umano.
Gli strumenti di intelligenza artificiale non sono inoltre influenzati dai limiti umani come vincoli di tempo, stanchezza, "giorni liberi" e disturbi. Nel corso del tempo, queste limitazioni hanno spinto gli esseri umani a delegare il loro requisito esistenziale per pensare e imparare alle macchine. L'inesorabile digitalizzazione ci ha reso anche esperti sapere dove o come cercare informazioni invece di imparare a conservare le stesse informazioni. Quanti di noi memorizzano i numeri di telefono della nostra famiglia, colleghi e amici in questi giorni? Una stampella digitale è ora un must per navigare su strada (ad es. Waze, Google Maps), cucinare (canali video), riparare elettrodomestici (canali fai-da-te) e una miriade di altre attività banali. Le nostre attività quotidiane stanno rapidamente aumentando meccanicistico, spiazzando la nostra capacità di creare qualcosa di nuovo o rivoluzionario. Stiamo diventando estensioni delle nostre macchine invece che viceversa. Di conseguenza, l'umanità sta ora affrontando un'era di stupore collettivo e conformismo.
Non esiste modo migliore per valutare in che modo gli strumenti di intelligenza artificiale possono influenzare le nostre facoltà di pensiero e apprendimento se non osservando l'impatto di ChatGPT sul settore dell'istruzione globale. Sia gli studenti che gli educatori ora utilizzano ChatGPT come supplemento educativo, strumento per imbrogliare o come stampella digitale.
Una recente sondaggio della Walton Family Foundation e Impact Research ha rilevato che la maggior parte degli insegnanti (51%) e molti studenti utilizzano già ChatGPT nelle scuole. Un altro sondaggio che coinvolge 1,000 college statunitensi ha scoperto che il 30% degli studenti utilizzava ChatGPT per i compiti scritti, con il 60% che lo utilizzava su "più della metà dei loro compiti". ChatGPT ne ha superati molti esami di alto livello, tra cui l'esame Wharton MBA, l'esame di licenza medica statunitense, diversi esami di legge e una finale alla Stanford Medical School.
Cartiere può anche utilizzare ChatGPT per fabbricare articoli e rapporti scientifici. I ricercatori che utilizzano tali dati artificiosi, o che deliberatamente falsificano il processo di ricerca attraverso l'IA generativa, possono finire per promuovere politiche e prodotti dannosi per la società. Il mondo non può permettersi un'altra coronapsicosi!
Tutto sommato, studenti e insegnanti sono sempre più intimiditi dall'Onnipotente IA. AI alza il livello per studenti, professori e una varietà di professionisti. Anche la selezione di manufatti autentici sta diventando sempre più difficile.
As Cristoforo Kanan, professore associato di informatica presso l'Università di Rochester ha osservato di recente: "Diventa semplicemente più difficile capire chi sa cosa e chi riceve aiuto da cose come ChatGPT". Alcune scuole a New York, Hong Kong, Bangalore e altrove hanno vietato agli studenti di utilizzare ChatGPT nei loro compiti a causa di preoccupazioni per "plagio", frode e disinformazione.
Mentre ChatGPT è un ottimo strumento per studiare concetti complessi e filoni di integrazione delle conoscenze, in realtà potrebbe trasformare la maggior parte degli utenti in docili consumatori di dati generati dall'intelligenza artificiale. La passività prolungata mediata digitalmente atrofizza la facoltà del pensiero.
Un altro svantaggio di ChatGPT è il suo potenziale per ampliare il tanto dibattuto divario digitale. Le domande di lavoro, promozioni, borse di studio ecc. Favoriranno in modo schiacciante i ricchi digitali rispetto ai poveri digitali, soprattutto una volta che per l'accesso sono richieste quote di abbonamento.
Gli educatori al momento non sono in grado di definire i confini etici di ChatGPT e stanno adottando un atteggiamento attendista. Lo stesso quadro etico può essere scritto da, o con l'aiuto di, strumenti come ChatGPT. Aini Suzana Ariffin, professore associato di studi politici presso l'Universiti Teknologi Malaysia, è convinta che gli educatori non debbano allarmarsi. “Un quadro etico per strumenti di intelligenza artificiale generativa come ChatGPT risolverà ciò che aumenta il processo di apprendimento e ciò che lo impedisce. Questo potrebbe richiedere del tempo e comporterà molti dibattiti, ma è meglio iniziare ora”.
Processo decisionale umano
Il governo di Singapore ha recentemente annunciato che i suoi dipendenti pubblici inizieranno a utilizzare ChatGPT per alleggerire il proprio carico di lavoro. Ciò ha senso poiché le attività ripetitive o banali possono essere accelerate dagli strumenti di intelligenza artificiale. Tuttavia, man mano che gli strumenti di intelligenza artificiale generativa diventano esponenzialmente più intelligenti ed efficienti, come effettivamente accadrà, il complesso di governance potrebbe essere gradualmente usurpato dalle macchine. Questa forma emergente di ordinamento sociale si chiama “algocrazia”; uno in cui gli algoritmi, in particolare AI e blockchain, vengono applicati a tutto lo spettro del governo. L'algocrazia implica inevitabilmente una governance predittiva. La polizia di Berlino ha già incorporato una forma embrionale di algocrazia al suo interno polizia predittiva sistema. Siamo di fronte a Minority Report società nel prossimo futuro?
ChatGPT accelera anche il flusso di informazioni nei livelli decisionali apicali di un governo o di un'organizzazione, aggirando i tradizionali ruoli di gatekeeper delle burocrazie ai livelli intermedi. Mentre questo può essere annunciato come uno sviluppo positivo contro la burocrazia, la mancanza di controlli ed equilibri tradizionali può portare a decisioni perentorie con dolorose implicazioni socioeconomiche. Immagina di trapiantare un tale sistema decisionale algocratico nell'infrastruttura delle armi nucleari di una superpotenza militare?
ChatGPT corre anche il rischio di violare la privacy e far trapelare dati personali in settori come quello bancario e sanitario. L'efficacia degli strumenti di intelligenza artificiale generativa è alimentata da un volume sempre crescente di dati che vengono costantemente ricollegati alle loro reti neurali. Questa ricerca di accuratezza, efficienza e velocità può comportare la compromissione dei dati privati come parte del processo di apprendimento automatico.
Nel settore della sanità, consenso informato all'assistenza sanitaria assistita dall'intelligenza artificiale può essere ridotta poiché i pazienti potrebbero non capire a cosa stanno acconsentendo o potrebbero fidarsi eccessivamente di un sistema basato su macchine "intelligente e imparziale". Diventa più minaccioso quando il triage viene impiegato in situazioni critiche. Tradizionalmente, il triage è determinato dall'integrità e dalle competenze del personale medico presente, nonché dalle risorse disponibili on-site. Un algoritmo, tuttavia, può organizzare spassionatamente il triage in base al "valore per la società" di un paziente; aspettativa di vita dedotta dai dati; e i costi associati al salvataggio della vita del paziente.
Le dimensioni etiche del triage mediato dall'IA non sono state risolte. Tuttavia, vale la pena notare che il co-fondatore di Microsoft Bill Gates è favorevole pannelli della morte per i malati terminali che "non hanno benefici per la società" e la cui conservazione può apparentemente compensare il lavoro di "centomila insegnanti". Estendendo ulteriormente questa logica, potremmo assistere a un mandato futuro per i "bambini intelligenti" che presumibilmente popoleranno una "società intelligente". Algoritmi sofisticati del futuro potrebbero separare i ricchi genetici dai poveri genetici attraverso test del DNA fetale e strumenti come la diagnosi genetica preimpianto (PGD). Questo slancio eugenetico è stato eufemisticamente chiamato “beneficenza procreativa”. Per inciso, Bill Gates ha sostenuto finanziariamente un'azienda cinese che sta lavorando alla creazione di "superbambini". C'è da meravigliarsi che Microsoft sia uno dei principali finanziatori di OpenAI?
Alla fine della giornata, un quadro di intelligenza artificiale etica sarà ostacolato dai Tech Titans che possono determinare il design, i parametri e gli obiettivi degli strumenti di intelligenza artificiale generativa? Oppure i nostri leader eletti tenteranno di cercare una coesistenza sinergica tra intelligenza artificiale e umani.
ChatGPT può avere conseguenze irreversibili. Ai tecnocrati non interessa lo stato mentale e psicologico della popolazione, e lo stanno facendo comunque, nonostante le realizzazioni discusse nell'articolo. Non possono aiutare se stessi. Vogliono che la popolazione sia bloccata nel pensiero di gruppo, in inutili ideologie basate sul controllo e hanno reso importante che l'individualismo sia intimidito ed eliminato il più possibile. Sono interessati a simulazioni e approssimazioni mentre sono nella mentalità di schemi e modelli di pensiero materiali riduzionisti, che negano tutti la natura dello Spirito, chi siamo veramente. Quindi, sono esistenzialmente immaturi e pericolosi, attaccati a un certo numero di... Per saperne di più »
Punti buoni. Gli inventori delle cose malvagie senza dubbio vogliono che tutti siano d'accordo anche con il diavolo e anche con l'anticristo. Ecco perché oggi non ho fiducia nella maggior parte dei progressi medici o tecnologici. Mi è chiaro come il giorno che tutto sta portando al sistema delle bestie e alla grande tribolazione.
Buono. Vedo molti giovani già chiusi in una matrice mentale da cui non riescono ad uscire.
Non possono trarre semplici conclusioni logiche e semplicemente ignorano la realtà documentata.
Ma il problema per noi è come possiamo liberarci dai loro guai? Sono appesi come piombo su di noi per rendere la loro semplice visione del mondo.
Non possiamo continuare una vita in negativo come infermiere psicologiche per 3-5 miliardi di disabili mentali che si credono star del cinema come nomadi digitali.
[…] Leggi l'articolo originale […]
ChatGPT può imparare senza il mio coinvolgimento. E posso imparare senza il suo aiuto. Vieni a pensarci bene. ChatGPT sta imparando di più gratuitamente effettuando ricerche nei database per le richieste delle persone che lo utilizzano. Non voglio conoscere CharGPT. Né voglio che ChatGPT sappia della mia esistenza. La tecnologia moderna può essere una buona cosa se creata da persone etiche con buone intenzioni. Ma quando è chiaro come il giorno che il diavolo è nei dettagli. Sto alla larga da qualsiasi cosa o persona su cui abbia le mani.
[…] ChatGPT può avere conseguenze irreversibili per l'apprendimento e il processo decisionale […]
[…] ChatGPT può avere conseguenze irreversibili per l'apprendimento e il processo decisionale […]
Questo programma rappresenta l'ultimo chiodo nella bara dell'abbattimento dell'umanità, subito dopo l'istruzione pubblica. I ricercatori della verità devono ora diventare vigili quando sono online, sapere da dove i fatti sono emersi originariamente sugli argomenti e costruire una biblioteca di conoscenze personali che possono essere condivise in modo che quando vediamo informazioni ripetute dal "ChatCrap" le riconosciamo come tali ed evitiamole . Questo non dovrebbe essere molto difficile all'inizio fino a quando i tiranni non chiuderanno l'accesso alle informazioni reali, che sappiamo stanno arrivando. Fino ad allora, ci sono così tanti custodi della conoscenza online che scovano... Per saperne di più »
"ChatGPT può avere conseguenze irreversibili per l'apprendimento e il processo decisionale"...
L'abbiamo superato LOOOOOOOOOONG, grazie ai nostri SKOOLS (scritto apposta)!!
[…] ChatGPT può avere conseguenze irreversibili per l'apprendimento e il processo decisionale […]
[…] ChatGPT può avere conseguenze irreversibili per l'apprendimento e il processo decisionale […]
[…] 15 MARZO 2023 | CHATGPT PUÒ AVERE CONSEGUENZE IRREVERSIBILI PER L'APPRENDIMENTO E IL PROCESSO DECISIONALE […]