OpenAI, Google, Anthropic et d'autres entreprises qui développent l'IA générative améliorent constamment leurs technologies et sortent des modèles de langage à grande échelle de plus en plus performants. Afin de créer une approche commune pour une évaluation indépendante de la sécurité de ces modèles, les gouvernements du Royaume-Uni et des États-Unis ont signé un protocole d'accord. L'Institut britannique pour la sécurité de l'IA et son homologue américain, annoncé par la vice-présidente Kamala Harris mais pas encore opérationnel, développeront conjointement des séries de tests afin d'évaluer les risques et de garantir la sécurité des "modèles d'IA les plus avancés".
Ils prévoient d'échanger des connaissances techniques, des informations et même du personnel dans le cadre de ce partenariat, et l'un de leurs premiers objectifs semble être de réaliser un exercice de test commun avec un modèle accessible au public. La ministre britannique des Sciences, Michelle Donelan, qui a signé l'accord, a déclaré au Financial Times qu'il fallait "vraiment agir vite", car une nouvelle génération de modèles d'IA est attendue dans le courant de l'année prochaine. Ils pensent que ces modèles pourraient offrir de "toutes nouvelles possibilités" et ne savent pas encore de quoi ils seront capables.
Selon The Times, ce partenariat est le premier accord bilatéral au monde sur la sécurité de l'IA, les Etats-Unis et le Royaume-Uni souhaitant également collaborer avec d'autres pays à l'avenir. "L'IA est la technologie clé de notre génération. Ce partenariat va accélérer le travail de nos deux institutions sur l'ensemble des risques, que ce soit pour notre sécurité nationale ou pour notre société en général", a déclaré la secrétaire américaine au Commerce Gina Raimondo. "Notre partenariat montre que nous ne fuyons pas ces problèmes, mais que nous les abordons. Notre collaboration permettra à nos institutions de mieux comprendre les systèmes d'IA, de procéder à des évaluations mieux fondées et de publier des directives plus strictes".
Alors que ce partenariat spécifique se concentre sur l'examen et l'évaluation, les gouvernements du monde entier travaillent également sur des réglementations visant à tenir les outils d'IA à distance. En mars déjà, la Maison Blanche a signé un décret visant à garantir que les agences fédérales n'utilisent que des outils d'IA qui "ne mettent pas en danger les droits et la sécurité du peuple américain". Quelques semaines auparavant, le Parlement européen avait adopté une loi complète sur la réglementation de l'intelligence artificielle. Elle interdit "l'IA qui manipule le comportement humain ou exploite les faiblesses humaines", "les systèmes de catégorisation biométrique basés sur des caractéristiques sensibles" ainsi que "l'extraction non ciblée" de visages à partir d'enregistrements de vidéosurveillance et d'Internet afin de constituer des bases de données de reconnaissance faciale. En outre, les "deepfakes" et autres images, vidéos et fichiers audio générés par l'IA doivent être clairement identifiés comme tels, conformément au règlement.