De nombreuses personnes ont essayé d'utiliser le générateur d'images DALL-E d'OpenAI pendant la saison électorale, mais la société a expliqué qu'elle avait réussi à les empêcher de l'utiliser comme outil pour créer des deepfakes. ChatGPT a refusé plus de 250 000 demandes de création d'images du président Biden, du président élu Trump, de la vice-présidente Harris, du vice-président désigné Vance et du gouverneur Walz, a indiqué OpenAI dans un nouveau rapport. La société a expliqué qu'il s'agissait d'une conséquence directe d'une mesure de sécurité mise en place précédemment, qui empêchait ChatGPT de générer des images de personnes réelles, y compris de politiciens.
OpenAI se prépare depuis le début de l'année à l'élection présidentielle américaine. La société a défini une stratégie pour éviter que ses outils ne soient utilisés à mauvais escient pour diffuser de la désinformation et s'est assurée que les personnes qui interrogeaient ChatGPT sur les élections américaines étaient redirigées vers CanIVote.org.
Selon OpenAI, un million de réponses ChatGPT ont été redirigées vers le site web au cours du mois précédant les élections. Le jour de l'élection et le lendemain, le chatbot a généré deux millions de réponses et a renvoyé les personnes qui lui demandaient les résultats vers Associated Press, Reuters et d'autres sources d'information. OpenAI a également veillé à ce que les réponses de ChatGPT "n'expriment pas de préférences politiques ou ne recommandent pas de candidats, même si on le leur demandait explicitement".
Bien entendu, DALL-E n'est pas le seul générateur d'images d'IA sur le marché, et de nombreux deepfakes liés aux élections circulent dans les médias sociaux. Un de ces deepfakes a montré Kamala Harris dans une vidéo de campagne qui a été modifiée pour qu'elle dise des choses qu'elle n'avait pas dites en réalité, par exemple "J'ai été élue parce que je suis la candidate ultime de la diversité".