I senatori presentano un disegno di legge per proteggere dalle contraffazioni generate dall'intelligenza artificiale

Un gruppo di senatori ha presentato oggi il "NO FAKES Act", una legge che renderebbe illegale la creazione di copie digitali della voce o dell'immagine di una persona senza il suo consenso. L'iniziativa bipartisan dei senatori Chris Coons (D-Del.), Marsha Blackburn (R-Tenn.), Amy Klobuchar (D-Minn.) e Thom Tillis (R-N.C.) è intitolata "Nurture Originals, Foster Art, and Keep Entertainment Safe Act of 2024".

Se approvata, la legge NO FAKES consentirà alle persone di chiedere un risarcimento se la loro voce, il loro volto o il loro corpo vengono replicati dall'IA. Sia gli individui che le aziende sarebbero ritenuti responsabili per la creazione, l'hosting o la distribuzione di repliche digitali non autorizzate, comprese quelle create dall'IA generativa.

Abbiamo già visto molti casi di celebrità che hanno trovato imitazioni di se stesse nel mondo. Taylor Swift" è stata usata per truffare le persone con un falso set di pentole Le Creuset. Una voce molto simile a quella di Scarlet Johannson è apparsa in una demo vocale di ChatGPT. L'intelligenza artificiale può anche essere utilizzata per far rilasciare false dichiarazioni a candidati politici, come è avvenuto di recente con Kamala Harris. E non sono solo le celebrità a poter essere vittime di deepfakes.

"Tutti hanno il diritto di possedere e proteggere la propria voce e la propria immagine, che si tratti di Taylor Swift o di qualcun altro", ha dichiarato il senatore Coons. "L'intelligenza artificiale generativa può essere utilizzata come strumento per promuovere la creatività, ma non deve andare a scapito dello sfruttamento illegale della voce o dell'immagine di qualcuno".

È risaputo che il ritmo delle nuove leggi è inferiore a quello dello sviluppo delle nuove tecnologie, quindi è incoraggiante vedere che i legislatori prendono sul serio la regolamentazione dell'IA. La proposta di legge odierna segue la legge DEFIANCE recentemente approvata dal Senato, che consentirebbe alle vittime di deepfakes sessuali di intentare una causa per danni.

Diverse associazioni dell'industria dell'intrattenimento hanno appoggiato la legge NO FAKES, tra cui SAG-AFTRA, RIAA, Motion Picture Association e Recording Academy. Molte di queste associazioni hanno già adottato misure per proteggersi dalle imitazioni non autorizzate dell'IA. La SAG-AFTRA ha recentemente organizzato uno sciopero contro diversi produttori di videogiochi per ottenere un contratto collettivo di lavoro per le rappresentazioni nei videogiochi.

Anche OpenAI è tra i sostenitori della legge. "OpenAI è lieta di sostenere il NO FAKES Act, che proteggerebbe i creatori e gli artisti dalle riproduzioni digitali non autorizzate delle loro voci e immagini", ha dichiarato Anna Makanju, vicepresidente di OpenAI per gli Affari globali. I creatori e gli artisti devono essere protetti dalla contraffazione non autorizzata e una legislazione ben concepita a livello federale può fare la differenza".

Lascia una risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *