Google will transparenter machen, ob Inhalte mit generativen KI-Tools (GAI) erstellt oder verändert wurden. Nachdem Google Anfang des Jahres als Mitglied des Lenkungsausschusses der Coalition for Content Provenance and Authenticity (C2PA) beigetreten ist, hat das Unternehmen nun bekannt gegeben, wie es mit der Umsetzung des digitalen Wasserzeichen-Standards der Gruppe beginnen wird.
Gemeinsam mit Partnern wie Amazon, Meta und OpenAI hat Google in den vergangenen Monaten an der Verbesserung der Technologie zur Kennzeichnung von Inhalten gearbeitet, die von GAI erstellt oder verändert wurden. Das Unternehmen hat nach eigenen Angaben an der Entwicklung der neuesten Version von Content Credentials mitgewirkt, einem technischen Standard zum Schutz von Metadaten, die Aufschluss darüber geben, wie ein Asset erstellt wurde und was wie verändert wurde. Laut Google ist die aktuelle Version von Content Credentials aufgrund strengerer Validierungsmethoden sicherer und fälschungssicherer.
In den kommenden Monaten wird Google damit beginnen, die aktuelle Version von Content Credentials in einige seiner Hauptprodukte zu integrieren. Mit anderen Worten: In den Google-Suchergebnissen sollte es bald einfacher zu erkennen sein, ob ein Video von YouTube stammt oder nicht.
Das Unternehmen untersucht derzeit, wie man YouTube-Zuschauer mit Hilfe von C2PA darüber informieren kann, wann Filmmaterial mit einer Kamera aufgenommen wurde. Weitere Informationen dazu sollen im Laufe des Jahres bekannt gegeben werden.
Auch Google hat entsprechende Pläne,
Die Wirksamkeit all dessen hängt natürlich davon ab, ob Unternehmen wie Kamerahersteller und Entwickler von GAI-Tools das C2PA-Wasserzeichensystem tatsächlich nutzen. Der Ansatz wird auch niemanden davon abhalten, die Metadaten eines Bildes zu entfernen. Dies könnte es für Systeme wie Google schwieriger machen, eine GAI-Nutzung zu erkennen.
In der Zwischenzeit gab es in diesem Jahr einen Meta-Streit auf Facebook, Instagram und Threads darüber, wie offengelegt werden sollte, ob Bilder mit GAI erstellt wurden. Das Unternehmen hat nun seine Richtlinien geändert, um die Kennzeichnung von Bildern, die mit KI-Tools bearbeitet wurden, weniger sichtbar zu machen. Ab dieser Woche wird das Label „AI info“ nicht mehr oben und in der Mitte angezeigt, wenn C2PA-Metadaten darauf hinweisen, dass jemand (zum Beispiel) die GAI-Tools von Photoshop verwendet hat, um ein echtes Foto zu optimieren. Stattdessen ist es im Menü des Beitrags versteckt.