Top AI Conference vieta a ChatGPT di scrivere documenti accademici

Per favore, condividi questa storia!
ChatGPT sta per "Chat Generative Pre-trained Transformer". Può eseguire la generazione del linguaggio naturale con un livello di precisione così elevato da poter superare il Test di Turing, cioè ingannare gli umani che stanno comunicando con un computer. Anche i leader di Technocrat AI stanno riconoscendo le implicazioni pericolose e stanno erigendo segnali di stop. ⁃ Editore TN

Gli strumenti di intelligenza artificiale possono essere utilizzati per "modificare" e "rifinire" il lavoro degli autori, affermano gli organizzatori della conferenza, ma il testo "prodotto interamente" dall'IA non è consentito. Ciò solleva la domanda: dove tracci il confine tra editing e scrittura?

Una delle conferenze sull'apprendimento automatico più prestigiose al mondo ha vietato agli autori di utilizzare strumenti di intelligenza artificiale come ChatGPT per scrivere articoli scientifici, innescando un dibattito sul ruolo del testo generato dall'IA nel mondo accademico.

La Conferenza internazionale sull'apprendimento automatico (ICML) ha annunciato la politica all'inizio di questa settimana, affermando: "I documenti che includono testo generato da un modello linguistico su larga scala (LLM) come ChatGPT sono vietati a meno che il testo prodotto non sia presentato come parte del analisi sperimentale della carta. La notizia ha fatto scalpore discussione diffusa sui social media, con accademici e ricercatori di IA che difendono e criticano la politica. Gli organizzatori della conferenza hanno risposto con pubblicare una dichiarazione più lunga spiegando il loro pensiero. (L'ICML ha risposto alle richieste di La Verge per un commento indirizzandoci a questa stessa affermazione.)

Secondo l'ICML, l'ascesa di modelli di linguaggio IA pubblicamente accessibili come ChatGPT, un chatbot IA generico che lanciato sul web lo scorso novembre - rappresenta uno sviluppo "entusiasmante" che tuttavia comporta "conseguenze impreviste [e] domande senza risposta". L'ICML dice che queste includono domande su chi possiede l'output di tali sistemi (sono formati su dati pubblici, che di solito vengono raccolti senza consenso e talvolta rigurgitano queste informazioni alla lettera) e se il testo e le immagini generati dall'intelligenza artificiale debbano essere "considerati nuovi o semplici derivati ​​di lavori esistenti".

Quest'ultima domanda si collega a un complicato dibattito sulla paternità, ovvero chi "scrive" un testo generato dall'intelligenza artificiale: la macchina o il suo controllore umano? Ciò è particolarmente importante dato che l'ICML vieta solo il testo "prodotto interamente" da AI. Gli organizzatori della conferenza affermano di sì non vietando l'uso di strumenti come ChatGPT "per la modifica o la lucidatura del testo scritto dall'autore" e si noti che molti autori hanno già utilizzato "strumenti di modifica semi-automatici" come il software di correzione grammaticale Grammarly per questo scopo.

“È certo che queste domande, e molte altre, riceveranno una risposta nel tempo, man mano che questi modelli generativi su larga scala vengono adottati più ampiamente. Tuttavia, non abbiamo ancora risposte chiare a nessuna di queste domande”, scrivono gli organizzatori della conferenza.

Di conseguenza, l'ICML afferma che il suo divieto di testo generato dall'intelligenza artificiale sarà rivalutato il prossimo anno.

Tuttavia, le questioni che l'ICML sta affrontando potrebbero non essere facilmente risolte. La disponibilità di strumenti di intelligenza artificiale come ChatGPT sta causando confusione in molte organizzazioni, alcune delle quali hanno risposto con i propri divieti. L'anno scorso, codice del sito di domande e risposte Stack Overflow ha vietato agli utenti di inviare risposte create con ChatGPT, mentre il Dipartimento dell'Istruzione di New York City bloccato l'accesso allo strumento per chiunque sulla sua rete proprio questa settimana.

In ogni caso, ci sono diversi timori sugli effetti dannosi del testo generato dall'intelligenza artificiale. Uno dei più comuni è che l'output di questi sistemi è semplicemente inaffidabile. Questi strumenti di intelligenza artificiale sono vasti sistemi di completamento automatico, addestrati a prevedere quale parola segue la successiva in una determinata frase. In quanto tali, non hanno un database codificato di "fatti" su cui attingere, solo la capacità di scrivere affermazioni dal suono plausibile. Questo significa che hanno la tendenza a presentare informazioni false come verità dal momento che una data frase suoni plausibile non ne garantisce la fattualità.

Nel caso del divieto dell'ICML sul testo generato dall'intelligenza artificiale, un'altra potenziale sfida è distinguere tra la scrittura che è stata solo "rifinita" o "modificata" dall'intelligenza artificiale e quella che è stata "prodotta interamente" da questi strumenti. A che punto una serie di piccole correzioni guidate dall'intelligenza artificiale costituisce una riscrittura più ampia? Cosa succede se un utente chiede a uno strumento di intelligenza artificiale di riassumere il proprio articolo in un breve abstract? Questo conta come testo appena generato (perché il testo è nuovo) o semplice rifinitura (perché è un riassunto delle parole che l'autore ha scritto)?

Leggi la storia completa qui ...

Informazioni sull'editor

Patrick Wood
Patrick Wood è un esperto importante e critico in materia di sviluppo sostenibile, economia verde, agenda 21, agenda 2030 e tecnocrazia storica. È autore di Technocracy Rising: The Trojan Horse of Global Transformation (2015) e coautore di Trilaterals Over Washington, Volumes I e II (1978-1980) con il compianto Antony C. Sutton.
Sottoscrivi
Notifica
ospite

3 Commenti
il più vecchio
Nuovi Arrivi I più votati
Feedback in linea
Visualizza tutti i commenti
Tazza Diller

È come promulgare una legge nel 1905 che consente le automobili, ma solo se trainate da un cavallo.

Godot

BAN agli autori di utilizzare strumenti di intelligenza artificiale! Buona fortuna. E OJ Simpson sta ancora cercando il vero assassino.

Resistenza 21

Stavo solo ascoltando il tuo Quickening Report su questo argomento e ho deciso di commentare qui. (1) Indichi che ChatGPT può eseguire falsi profondi di voce fuori campo per i video. Questo potrebbe anche essere uno stratagemma propagandistico in modo che gli attori del Deep State possano negare ciò che hanno realmente detto sulle prove video che raccogliamo. (2) Tutto ciò di cui posso essere certo è che non so cosa ci sia dall'altra parte dell'interfaccia. Chi o cosa è l'uomo dietro la tenda? Quando è un'intelligenza artificiale, umana o propagandista? Vedi anche il concetto di Meccanico... Per saperne di più »

Ultima modifica 8 mesi fa di Resistance21