Veuillez ne pas recevoir de messages de chatbots d'intelligence artificielle.

C'est un rappel régulier que les chatbots contrôlés par l'IA continuent d'inventer des choses et de mentir avec l'assurance d'un système GPS qui vous dit que le chemin le plus court pour rentrer chez vous passe par un lac.
Mon rappel vient avec l'aimable autorisation du Nieman Lab, qui a mené une expérience pour voir si ChatGPT fournit des liens corrects vers des articles de publications d'information auxquelles il verse des millions de dollars. Il s'est avéré que ChatGPT ne le fait pas. Au lieu de cela, il invente avec assurance des URL entières, un phénomène que l'on appelle "hallucination" dans le secteur de l'IA, un terme qui s'applique plutôt à une personne réelle qui se défonce à ses propres conneries.
Andrew Deck deNieman Labbat le service de fournir des liens vers des histoires exclusives de haut niveau publiées par 10 éditeurs avec lesquels OpenAI a conclu des contrats de plusieurs millions de dollars. Il s'agissait de l'Associated Press, du Wall Street Journal, du Financial Times, du Times (UK), du Monde, d'El País, de The Atlantic, de The Verge, de Vox et de Politico. En réponse, ChatGPT crachait des URL inventées qui menaient à des pages d'erreur 404, tout simplement parce qu'elles n'existaient pas. En d'autres termes, le système fonctionnait exactement comme il le devait, en prédisant la version la plus probable de l'URL d'un article au lieu de citer réellement la bonne. Nieman Lab a mené une expérience similaire au début du mois avec une seule publication - Business Insider - et est parvenu au même résultat.
Un porte-parole d'OpenAI a indiqué à Nieman Lab que l'entreprise travaillait toujours sur une expérience combinant les capacités de conversation avec le contenu des messages les plus récents et garantissant l'attribution et le lien corrects vers les sources - une expérience avancée qui est toujours en cours de développement et qui n'est pas encore disponible dans ChatGPT. Ils ont toutefois refusé d'expliquer les URL falsifiées.
Nous ne savons pas quand cette nouvelle expérience sera disponible ni à quel point elle sera fiable. Néanmoins, les éditeurs d'informations continuent de déverser des années de journalisme dans le gouffre béant de l'OpenAI, en échange d'argent froid et dur, parce que le secteur du journalisme n'a toujours pas compris comment gagner de l'argent sans vendre son âme aux entreprises technologiques. Pendant ce temps, les entreprises d'IA se précipitent sur les contenus publiés par tous ceux qui ne se sont pas engagés dans ce commerce faustien et les utilisent pour entraîner leurs modèles. Mustafa Suleyman, le responsable de l'IA chez Microsoft, a récemment qualifié de "freeware" tout ce qui est publié sur Internet et qui peut être utilisé pour entraîner des modèles d'IA. Lorsque j'ai écrit cela, Microsoft était valorisé à 3,36 billions de dollars.
Il y a une leçon à en tirer : si ChatGPT invente des URL, il invente aussi des faits. C'est ainsi que fonctionne l'IA générative - en fait, cette technologie est une version améliorée de la complétion automatique, qui devine simplement le prochain mot plausible dans une séquence. Elle ne "comprend" pas ce que vous dites, même si elle fait semblant de le faire. Récemment, j'ai essayé de faire en sorte que nos principaux chatbots m'aident à résoudre le problème du New York Times Spelling Bee, et je les ai vus se planter et brûler.

Si l'IA générative ne peut même pas résoudre un concours d'épellation, nous ne devrions pas non plus l'utiliser pour établir des faits.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *