In seguito a un articolo del Wall Street Journal in cui si afferma che OpenAI sta lavorando a uno strumento in grado di riconoscere con elevata precisione i saggi scritti in ChatGPT, l'azienda ha condiviso alcune informazioni sulla sua ricerca in materia di watermarking del testo e sul motivo per cui non ha rilasciato il suo metodo di riconoscimento. Secondo il Wall Street Journal, il dibattito sull'opportunità di rilasciare lo strumento ha fatto sì che non vedesse la luce, nonostante fosse "pronto". In un aggiornamento pubblicato domenica su un post del blog di maggio scoperto da TechCrunch, OpenAI ha dichiarato: "I nostri team hanno sviluppato un metodo per il riconoscimento dei watermark di testo che continuiamo a rivedere mentre cerchiamo alternative".
L'azienda ha dichiarato che il watermarking è una delle diverse soluzioni, tra cui i classificatori e i metadati, che ha studiato nell'ambito di "un'ampia ricerca sulla provenienza del testo". Secondo OpenAI, questa soluzione si è dimostrata molto accurata in alcune situazioni, ma non funziona altrettanto bene quando si verificano alcune forme di manipolazione, come l'uso di sistemi di traduzione, la riformulazione con un modello generativo diverso o l'istruzione al modello di inserire un carattere specifico tra ogni parola e poi cancellarlo. Inoltre, la filigrana del testo potrebbe "colpire in modo sproporzionato alcuni gruppi", scrive OpenAI. "Per esempio, potrebbe stigmatizzare l'uso dell'IA come utile strumento di scrittura per i non madrelingua".
Secondo il post sul blog, OpenAI ha valutato questi rischi. L'azienda ha anche scritto di aver dato priorità al rilascio di strumenti di autenticazione per i contenuti audiovisivi. In una dichiarazione rilasciata a TechCrunch, un portavoce di OpenAI ha affermato che l'azienda ha adottato un "approccio deliberato" alla provenienza dei testi a causa della "complessità del problema e del probabile impatto sull'ecosistema più ampio oltre OpenAI".