Le New York Times rapporte qu'OpenAI a supprimé des preuves dans son procès pour violation du droit d'auteur.

Il y a dix ans, Stephen Hawking a raconté à John Oliver, lors du talk-show Last Week Tonight, une histoire hypothétique effrayante mais mémorable sur les dangers potentiels de l'IA. Il s'agit d'un groupe de scientifiques qui construisent un ordinateur super-intelligent et lui demandent : "Y a-t-il un Dieu ? L'ordinateur répond : "Il y en a un", et la foudre s'abat sur la prise, de sorte qu'il est impossible de l'éteindre. Espérons qu'avec OpenAI et quelques preuves manquantes du procès pour plagiat intenté par le New York Times, cela ne se produira pas.

Wired a rapporté qu'un document judiciaire déposé mercredi par le New York Times indique que les ingénieurs d'OpenAI ont supprimé par inadvertance les preuves des données d'entraînement de l'IA, dont la recherche et la compilation avaient pris beaucoup de temps. OpenAI a certes pu récupérer une partie des données, mais "les noms de fichiers originaux et la structure des dossiers", qui montrent quand l'IA a copié les articles dans ses modèles, manquent toujours.

Le porte-parole d'OpenAI, Jason Deutrom, a contesté les allégations du New York Times et a déclaré que la société "soumettrait bientôt une réponse". Le New York Times est en conflit avec Microsoft et OpenAI depuis décembre dernier au sujet de prétendues violations de droits d'auteur sur leurs modèles d'IA.

L'affaire en est encore à la phase de collecte des preuves, au cours de laquelle des preuves sont demandées et présentées par les deux parties afin de préparer l'affaire pour le procès. OpenAI a été invité à fournir ses données d'entraînement au New York Times, mais n'a pas rendu publiques les informations exactes utilisées pour créer les modèles d'IA.

Au lieu de cela, OpenAI a créé une "sandbox" de deux machines virtuelles pour permettre à l'équipe juridique du NYT d'enquêter. L'équipe juridique du NYT a passé plus de 150 heures à examiner les données sur l'une des machines avant que les données ne soient supprimées. OpenAI a confirmé la suppression, mais l'équipe juridique de l'entreprise l'a qualifiée d'"erreur". Bien que les ingénieurs d'OpenAI aient tenté d'annuler l'erreur, le travail du NYT était absent des données récupérées. En conséquence, le NYT a dû pratiquement tout recréer à partir de zéro. Les avocats du NYT ont déclaré qu'ils n'avaient aucune raison de penser que la suppression avait été intentionnelle.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *