OpenAI, Google, Anthropic e altre aziende che sviluppano IA generativa migliorano costantemente le loro tecnologie e rilasciano modelli linguistici su larga scala sempre migliori. Per creare un approccio comune per valutare in modo indipendente la sicurezza di questi modelli, i governi del Regno Unito e degli Stati Uniti hanno firmato un memorandum d'intesa. L'Istituto per la sicurezza dell'IA del Regno Unito e la sua controparte americana, annunciata dal vicepresidente Kamala Harris ma non ancora operativa, svilupperanno congiuntamente una serie di test per valutare i rischi e garantire la sicurezza dei "modelli di IA più avanzati".
La partnership prevede la condivisione di conoscenze tecniche, informazioni e persino del personale e uno dei primi obiettivi sembra essere quello di condurre un esercizio di prova congiunto utilizzando un modello disponibile pubblicamente. Il Ministro della Scienza britannico Michelle Donelan, che ha firmato l'accordo, ha dichiarato al Financial Times che è necessario "muoversi molto rapidamente", poiché nel corso del prossimo anno è previsto l'arrivo di una nuova generazione di modelli di intelligenza artificiale. Si ritiene che questi modelli possano offrire "possibilità completamente nuove" e non si sa ancora di cosa saranno capaci.
Secondo il Times, questa partnership è il primo accordo bilaterale al mondo sulla sicurezza dell'IA, e gli Stati Uniti e il Regno Unito intendono collaborare con altri Paesi in futuro. "L'IA è la tecnologia chiave della nostra generazione. Questa partnership accelererà il lavoro delle nostre due istituzioni sull'intero spettro dei rischi, sia per la nostra sicurezza nazionale che per la nostra società in generale", ha dichiarato il Segretario al Commercio degli Stati Uniti Gina Raimondo. "La nostra partnership dimostra che non stiamo scappando da questi problemi, ma li stiamo affrontando. Lavorando insieme, le nostre istituzioni acquisiranno una migliore comprensione dei sistemi di IA, faranno valutazioni più informate ed emetteranno linee guida più incisive".
Mentre questa particolare partnership si concentra su test e valutazioni, i governi di tutto il mondo stanno anche lavorando su regolamenti per tenere sotto controllo gli strumenti di IA. A marzo, la Casa Bianca ha firmato un ordine esecutivo per garantire che le agenzie federali utilizzino solo strumenti di IA che "non mettano a rischio i diritti e la sicurezza del popolo americano". Poche settimane prima, il Parlamento europeo aveva approvato una legge completa per regolamentare l'intelligenza artificiale. La legge vieta "l'IA che manipola il comportamento umano o sfrutta le debolezze dell'uomo", "i sistemi di categorizzazione biometrica basati su caratteristiche sensibili" e la "lettura non mirata" di volti da filmati di videosorveglianza e da Internet al fine di creare database per il riconoscimento facciale. Inoltre, i deepfake e altre immagini, video e file audio generati dall'IA devono essere chiaramente etichettati come tali, in conformità con il regolamento.