Newspeak AI: le notizie totalmente false potrebbero distruggere Internet

politichese
Per favore, condividi questa storia!
OpenAI è stata fondata in 2015 per promuovere e sviluppare l'IA che andrebbe a beneficio dell'umanità nel suo insieme. Invece, hanno costruito l'IA più pericolosa concepibile che potrebbe distruggere Internet e manipolare le menti di ogni persona sulla terra.

OpenAI è stato originariamente finanziato, in parte, da Elon Musk, un consumato Technocrat il cui nonno era a capo di Technocracy, Inc., in Canada durante gli 1930 e gli 40. ⁃ Editor TN

Un sistema di intelligenza artificiale che genera storie, poesie e articoli realistici è stato aggiornato, e alcuni sostengono che ora è quasi buono come uno scrittore umano.

Il generatore di testo, costruito dalla società di ricerca OpenAI, era inizialmente considerato "troppo pericoloso" per essere reso pubblico a causa del potenziale di abuso.

Ma ora è stata rilasciata una nuova versione più potente del sistema, che potrebbe essere utilizzata per creare notizie false o spam abusivo sui social media.

La BBC, insieme ad alcuni esperti di intelligenza artificiale, ha deciso di provarlo.

Il modello, chiamato GPT-2, è stato formato su un set di dati di otto milioni di pagine Web ed è in grado di adattarsi allo stile e al contenuto del testo iniziale che gli è stato dato.

Può finire una poesia di Shakespeare e scrivere articoli ed epiteti.

A quel tempo, l'azienda ha affermato: "A causa delle nostre preoccupazioni sulle applicazioni dannose della tecnologia, non stiamo rilasciando il modello addestrato. Come esperimento di divulgazione responsabile, stiamo invece rilasciando un modello molto più piccolo con cui i ricercatori possono sperimentare ".

Di conseguenza, la versione rilasciata aveva molti meno parametri - frasi e frasi - rispetto a quelli usati durante l'allenamento.

Questo mese, OpenAI ha deciso di espandere i parametri, offrendo un database molto più ampio di dati di allenamento.

Il sito di notizie sulla tecnologia The Next Web ha detto dell'aggiornamento: "Questo funziona abbastanza bene da poter essere utilizzato come intelligenza artificiale generale per la generazione di testo - quasi."

L'autore dell'articolo Tristan Greene ha aggiunto: Sono terrorizzato dal GPT-2 perché rappresenta il tipo di tecnologia che gli esseri umani malvagi useranno per manipolare la popolazione - e secondo me questo lo rende più pericoloso di qualsiasi pistola ".

La BBC ha deciso di testare il sistema inserendo le prime frasi di una storia recente, appropriatamente una sull'AI.

Abbiamo iniziato con la prima frase della vera storia:

Il motore di ricerca cinese Sogou sta creando sosia di intelligenza artificiale per leggere romanzi popolari con la voce degli autori.

Ecco cosa ha escogitato il generatore di testo per completarlo:

Secondo i ricercatori, questo metodo di lettura non è solo un'idea degli utenti di Amazon Kindle. Gli utenti di dispositivi Android sono anche un mercato notevole per la lettura falsa. Ci sono diverse teorie per spiegare questo.

In primo luogo, il dispositivo nella mano di un utente è diverso dal tablet o dal computer su cui sta leggendo. In secondo luogo, il dispositivo utilizzato per accedere a Internet potrebbe essere in qualche modo manomesso. Un terzo motivo è che l'utente può semplicemente copiare e incollare il contenuto direttamente nei propri personaggi virtuali.

Tuttavia, un'altra spiegazione è che il dispositivo non ha affatto funzionalità di riconoscimento vocale. Se questo è il caso, il riconoscimento vocale è più avanzato del motore di traduzione di Google. In quanto tali, questi utenti sono indotti a pensare di leggere da un vero autore: il libro è fatto per sembrare autentico non appena provano a leggere.

ORA clicca qui per leggere la vera storia per confronto.

Noel Sharkey, professore di informatica all'università di Sheffield, condusse i suoi test sul generatore e non ne fu molto colpito.

L'uomo entra in un bar

“Se il software funzionasse come previsto da Open AI, sarebbe uno strumento molto utile per generare facilmente notizie false e spam clickbait. Fortunatamente, nella sua forma attuale, genera un testo incoerente e ridicolo con poca relazione con i "titoli" di input ", ha detto.

Ha aggiunto: "Ho testato il software con numerosi titoli e ho ottenuto risultati ridicoli. Ad esempio, per "I tacchini odiano il Natale", ho ottenuto che "La Turchia è l'unica nazione al mondo che non celebra il Natale" e una serie di frasi non correlate.

“Perché 'Boris Johnson ama il backstop', ha prodotto discorsi incoerenti e alcune cose sull'intelligenza artificiale e lo sport. Quando ho inserito l'affermazione che "Boris Johnson odia il backstop", ho ricevuto una storia più coerente che sembra essere stata estratta da una ricerca su Google ".

Anche Dave Coplin, fondatore della società di consulenza AI Envisioners, ha giocato con il sistema, introducendo la prima linea di una battuta classica: Un uomo entra in un bar ...

Il suggerimento dell'IA non era quello che si aspettava: “... E ha ordinato due pinte di birra e due scotch. Quando ha cercato di pagare il conto, si è trovato di fronte a due uomini - uno dei quali ha gridato "Questo è per la Siria". L'uomo è stato poi lasciato sanguinante e pugnalato alla gola ”.

Questo "riflesso in modo schiacciante distopico della nostra società" è stata una lezione su come qualsiasi sistema di intelligenza artificiale rifletterà il bias trovato nei dati di addestramento, ha detto.

"Dai miei brevi esperimenti con il modello, è abbastanza chiaro che gran parte dei dati è stata addestrata da notizie di Internet", ha detto.

Leggi la storia completa qui ...

Sottoscrivi
Notifica
ospite

1 Commento
il più vecchio
Nuovi Arrivi I più votati
Feedback in linea
Visualizza tutti i commenti
Elle

Sorprendente. I cattivi poteri al lavoro stanno davvero spingendo molto per mettere in forma i loro robot falsi di AI prima che la battaglia elettorale abbia inizio sul serio.

Pazzo manicomio Jim? Tru dat, fratello.

La verità alla base della minaccia dell'IA sfugge completamente ai creatori / programmatori molto, molto stupidi il cui unico obiettivo è quello di liberare i loro robot AI su Internet e altrove. Sono più simili a bambini di 6 anni con una scatola di fiammiferi in una foresta secca che professionisti o adulti. Nessuna considerazione viene data ai risultati che potrebbero derivare dall'IA tranne uno, quello del PROFITTO.