Capo della ricerca di Google: i chatbot AI possono dare risposte "convincenti ma completamente fittizie".

Per favore, condividi questa storia!
La capitalizzazione di Google è scesa di $ 100 miliardi dopo che il suo concorrente ChatGPT Bard non è riuscito a fornire risposte accurate. Come si fa a sapere cosa è vero o falso? Se l'intelligenza artificiale è "per lo più vera", qualcuno si preoccuperà delle false informazioni che verranno consumate inaspettatamente? Google sta attualmente operando in condizioni di "codice rosso" per rimanere pertinenti. ⁃ Editore TN

  • Il capo del motore di ricerca di Google ha affermato che i chatbot AI possono fornire risposte "convincenti" ma "fittizie".
  • Prabhakar Raghavan ha detto a Welt am Sonntag che sta valutando come integrare Bard con la ricerca di Google.
  • Google ha sentito "l'urgenza" di rilasciare al pubblico il suo chatbot Bard, ha affermato.
  • ChatGPT ha solo pochi mesi e sta già causando ondate nel mondo degli affari.
  • Gli esperti affermano che ChatGPT e la relativa intelligenza artificiale potrebbero minacciare alcuni posti di lavoro, in particolare quelli dei colletti bianchi.
  • Insider ha compilato un elenco di 10 posti di lavoro che questa tecnologia potrebbe sostituire, secondo gli esperti.

Dalla sua uscita in Novembre dello scorso annoChatGPT di OpenAI è stato abituato scrivere lettere di accompagnamentocreare un libro per bambinipersino aiutare gli studenti a tradire i loro compiti.

Il chatbot potrebbe essere più potente di quanto avessimo mai immaginato. Google ha scoperto che, in teoria, il motore di ricerca avrebbe assunto il bot come programmatore entry-level se intervistato presso l'azienda.

Dipendenti Amazon che hanno testato ChatGPT ha detto che fa un "ottimo lavoro" nel rispondere alle domande dell'assistenza clienti, è "ottimo" nel creare documenti di formazione ed è "molto forte" nel rispondere a domande sulla strategia aziendale.

Tuttavia, anche gli utenti di ChatGPT hanno scoperto che il bot può farlo generare disinformazionerispondere in modo errato ai problemi di codificaprodurre errori nella matematica di base.

Mentre un 2013 studio dell'Università di Oxford ha scoperto che il 47% dei posti di lavoro negli Stati Uniti potrebbe essere eliminato dall'intelligenza artificiale nei prossimi 20 anni, quella previsione sembra essere stato fuori base.

Anu Madgavkar, un partner del McKinsey Global Institute, ha detto che è perché il giudizio umano deve ancora essere applicato a queste tecnologie per evitare errori e pregiudizi, ha detto a Insider.

"Dobbiamo pensare a queste cose come strumenti per migliorare la produttività, anziché come sostituzioni complete", ha affermato Madgavkar.

Leggi la storia completa qui ...

Informazioni sull'editor

Patrick Wood
Patrick Wood è un esperto importante e critico in materia di sviluppo sostenibile, economia verde, agenda 21, agenda 2030 e tecnocrazia storica. È autore di Technocracy Rising: The Trojan Horse of Global Transformation (2015) e coautore di Trilaterals Over Washington, Volumes I e II (1978-1980) con il compianto Antony C. Sutton.
Sottoscrivi
Notifica
ospite

5 Commenti
il più vecchio
Nuovi Arrivi I più votati
Feedback in linea
Visualizza tutti i commenti
Blaise

ChatGPT già utilizzato. Seriamente, se questo è tutto ciò che hanno i transumanisti, sono davvero uno scherzo. Sì, può passare se c'è un corpus standard di materiale, come un esame di abilitazione. Ma chiedigli, ad esempio, il miglior generatore a doppio filtro per il tuo specifico modello di frigorifero (vai avanti, provalo) e tornerà con quella che è essenzialmente una verbosità standard che suona bene e non dice nulla. Digli di scrivere un articolo su come i colpi di covid non funzionano

Seriamente, fascista marxista di sinistra. Questo è tutto quello che hai???

[…] Capo della ricerca di Google: i chatbot AI possono dare risposte “convincenti ma completamente fittizie” […]

Elle

“… anche gli utenti di ChatGPT hanno scoperto che il bot può farlo generare disinformazionerispondere in modo errato ai problemi di codificaprodurre errori nella matematica di base. "

Ho pensato che fosse il punto di creare tale software. La sua utilità sta nel trasmettere informazioni logore, ripetibili e tipicamente false per la narrativa dei totalitarismi/tecnocrati, in particolare.

Apparentemente, i programmatori della mostruosità dell'IA sono Woketard che si sono rifiutati di codificare per la verità o di dire qualcosa di buono su chiunque / qualsiasi cosa che metta in dubbio la loro realtà di Woke.

Dan Gilfry

Proprio come i politici!? 😁

[…] Risposte completamente fittizie […]