Come Google vi aiuta a scoprire quali immagini sono state generate dall'IA

Google vuole rendere più trasparente se i contenuti sono stati creati o modificati utilizzando strumenti di IA generativa (GAI). Dopo aver aderito alla Coalition for Content Provenance and Authenticity (C2PA) come membro del comitato direttivo all'inizio di quest'anno, Google ha ora annunciato come inizierà a implementare lo standard di watermarking digitale del gruppo.

Insieme a partner come Amazon, Meta e OpenAI, Google ha lavorato negli ultimi mesi per migliorare la tecnologia di etichettatura dei contenuti creati o modificati dal GAI. L'azienda ha dichiarato di aver partecipato allo sviluppo dell'ultima versione di Content Credentials, uno standard tecnico per la protezione dei metadati che fornisce informazioni su come è stata creata una risorsa e su cosa è stato modificato e come. Secondo Google, la versione attuale di Content Credentials è più sicura e a prova di manomissione grazie a metodi di convalida più rigorosi.

Nei prossimi mesi, Google inizierà a integrare la versione attuale di Content Credentials in alcuni dei suoi prodotti principali. In altre parole: Presto dovrebbe essere più facile riconoscere nei risultati di ricerca di Google se un video proviene o meno da YouTube.

L'azienda sta attualmente studiando come utilizzare C2PA per informare gli spettatori di YouTube quando un filmato è stato registrato con una telecamera. Ulteriori informazioni in merito saranno annunciate nel corso dell'anno.
Anche Google ha dei piani corrispondenti,

Naturalmente, l'efficacia di tutto ciò dipende dal fatto che aziende come i produttori di fotocamere e gli sviluppatori di strumenti GAI utilizzino effettivamente il sistema di watermarking C2PA. L'approccio non impedirà inoltre a nessuno di rimuovere i metadati di un'immagine. Questo potrebbe rendere più difficile il riconoscimento dell'uso del GAI da parte di sistemi come Google.

Nel frattempo, quest'anno c'è stata una metadiscussione su Facebook, Instagram e thread su come rivelare se le immagini sono state create con l'IA. L'azienda ha ora modificato le sue linee guida per rendere meno visibile l'etichettatura delle immagini modificate con strumenti di IA. A partire da questa settimana, l'etichetta "AI info" non apparirà più in alto e al centro quando i metadati C2PA indicano che qualcuno (ad esempio) ha usato gli strumenti GAI di Photoshop per migliorare una foto reale. È invece nascosta nel menu del post.

Lascia una risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *