Google veut rendre plus transparent le fait que des contenus ont été créés ou modifiés à l'aide d'outils d'intelligence artificielle générative (IAG). Après avoir rejoint la Coalition for Content Provenance and Authenticity (C2PA) en tant que membre du comité directeur au début de l'année, Google a annoncé comment il allait commencer à mettre en œuvre la norme de filigrane numérique du groupe.
En collaboration avec des partenaires tels qu'Amazon, Meta et OpenAI, Google a travaillé ces derniers mois à l'amélioration de la technologie d'identification des contenus créés ou modifiés par GAI. L'entreprise affirme avoir contribué au développement de la dernière version de Content Credentials, une norme technique pour la protection des métadonnées qui permettent de savoir comment un actif a été créé et ce qui a été modifié et comment. Selon Google, la version actuelle de Content Credentials est plus sûre et plus infalsifiable grâce à des méthodes de validation plus rigoureuses.
Au cours des prochains mois, Google commencera à intégrer la version actuelle de Content Credentials dans certains de ses produits principaux. En d'autres termes : Dans les résultats de recherche Google, il devrait bientôt être plus facile de savoir si une vidéo provient de YouTube ou non.
L'entreprise étudie actuellement la possibilité d'utiliser le C2PA pour informer les spectateurs de YouTube du moment où une séquence a été filmée par une caméra. De plus amples informations à ce sujet devraient être communiquées dans le courant de l'année.
Google a également des projets en ce sens,
L'efficacité de tout cela dépend bien sûr de l'utilisation effective du système de filigrane C2PA par des entreprises telles que les fabricants d'appareils photo et les développeurs d'outils GAI. L'approche n'empêchera pas non plus les gens de supprimer les métadonnées d'une image. Il pourrait ainsi être plus difficile pour des systèmes tels que Google de détecter une utilisation de GAI.
Entre-temps, il y a eu cette année une métacontroverse sur Facebook, Instagram et Threads sur la manière de révéler si les images ont été créées avec GAI. L'entreprise a maintenant modifié sa politique afin de rendre moins visible l'étiquetage des images modifiées à l'aide d'outils d'IA. À partir de cette semaine, le label "AI info" ne sera plus affiché en haut et au milieu lorsque les métadonnées C2PA indiquent que quelqu'un (par exemple) a utilisé les outils GAI de Photoshop pour optimiser une photo réelle. Au lieu de cela, il est caché dans le menu de la publication.