Si prega di non ricevere messaggi dai chatbot dell'intelligenza artificiale.

Questo ci ricorda regolarmente che i chatbot guidati dall'intelligenza artificiale si inventano ancora le cose e mentono con la stessa sicurezza di un sistema GPS che ti dice che il percorso più breve per tornare a casa è attraverso un lago.
Il mio promemoria arriva per gentile concessione del Nieman Lab, che ha condotto un esperimento per verificare se ChatGPT fornisce link accurati agli articoli delle testate giornalistiche a cui paga milioni di dollari. È emerso che ChatGPT non lo fa. Al contrario, inventa consapevolmente interi URL, un fenomeno noto nell'industria dell'intelligenza artificiale come "allucinazione", un termine più applicabile a una persona reale strafatta delle proprie stronzate.
Andrew Deck di Nieman Labbat il servizio di fornire link a storie esclusive di alto profilo pubblicate da 10 editori con cui OpenAI ha contratti multimilionari. Tra questi, Associated Press, Wall Street Journal, Financial Times, Times (UK), Le Monde, El País, The Atlantic, The Verge, Vox e Politico. In risposta, ChatGPT ha sputato URL inventati che portavano a pagine di errore 404 perché semplicemente non esistevano. In altre parole, il sistema ha funzionato esattamente come avrebbe dovuto, prevedendo la versione più probabile dell'URL di un articolo invece di citare effettivamente quella corretta. All'inizio di questo mese, il Nieman Lab ha condotto un esperimento simile con una singola pubblicazione, Business Insider, giungendo alla stessa conclusione.
Un portavoce di OpenAI ha dichiarato a Nieman Lab che l'azienda sta ancora lavorando a un esperimento che combina le capacità conversazionali con i contenuti dei messaggi più recenti e garantisce una corretta attribuzione e collegamento alle fonti - un esperimento avanzato che è ancora in fase di sviluppo e non è ancora disponibile in ChatGPT. Tuttavia, si sono rifiutati di spiegare i falsi URL.
Non sappiamo quando questa nuova esperienza sarà disponibile o quanto sarà affidabile. Ciononostante, gli editori di notizie continuano a stipare anni di giornalismo nella bocca spalancata di OpenAI in cambio di denaro freddo e duro, perché l'industria del giornalismo non ha ancora capito come fare soldi senza vendere l'anima alle aziende tecnologiche. Nel frattempo, le aziende che si occupano di IA si stanno accaparrando i contenuti pubblicati da chiunque non abbia accettato questo patto faustiano e li usano per addestrare i loro modelli. Mustafa Suleyman, responsabile dell'IA di Microsoft, ha recentemente etichettato come "freeware" tutto ciò che viene pubblicato su Internet e che può essere utilizzato per addestrare i modelli di IA. Quando ho scritto questo articolo, Microsoft era valutata 3,36 trilioni di dollari.
C'è qualcosa da imparare da questo: quando ChatGPT inventa URL, inventa anche fatti. È così che funziona l'intelligenza artificiale generativa: in pratica, questa tecnologia è una versione migliorata del completamento automatico che si limita a indovinare la parola successiva plausibile in una sequenza. Non "capisce" quello che state dicendo, anche se finge di farlo. Di recente ho provato a chiedere ai nostri principali chatbot di aiutarmi a risolvere la gara di ortografia del New York Times e li ho visti fallire.

Se l'intelligenza artificiale generativa non è in grado di risolvere nemmeno una gara di spelling, non dovremmo usarla nemmeno per l'accertamento dei fatti.

Lascia una risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *