Viele Menschen haben während der Wahlsaison versucht, den Bildgenerator DALL-E von OpenAI zu nutzen, aber das Unternehmen hat erklärt, dass es sie davon abhalten konnte, ihn als Werkzeug zur Erstellung von Deepfakes zu verwenden. ChatGPT lehnte mehr als 250.000 Anfragen ab, Bilder von Präsident Biden, dem designierten Präsidenten Trump, Vizepräsidentin Harris, dem designierten Vizepräsidenten Vance und Gouverneur Walz zu erstellen, so OpenAI in einem neuen Bericht. Das Unternehmen erklärte, dies sei eine direkte Folge einer zuvor eingeführten Sicherheitsmaßnahme, die ChatGPT daran hindert, Bilder von echten Personen, einschließlich Politikern, zu generieren.
OpenAI bereitet sich seit Anfang des Jahres auf die US-Präsidentschaftswahlen vor. Das Unternehmen legte eine Strategie fest, um zu verhindern, dass seine Tools zur Verbreitung von Fehlinformationen missbraucht werden, und stellte sicher, dass Personen, die ChatGPT zu den US-Wahlen befragten, an CanIVote.org weitergeleitet wurden.
Laut OpenAI wurden im Monat vor der Wahl eine Million ChatGPT-Antworten auf die Website weitergeleitet. Am Wahltag und am Tag nach der Wahl generierte der Chatbot zwei Millionen Antworten und verwies Personen, die ihn nach den Ergebnissen fragten, an Associated Press, Reuters und andere Nachrichtenquellen. OpenAI stellte auch sicher, dass die Antworten von ChatGPT „keine politischen Präferenzen ausdrückten oder Kandidaten empfahlen, selbst wenn sie ausdrücklich danach gefragt wurden“.
Natürlich ist DALL-E nicht der einzige KI-Bildgenerator auf dem Markt, und in den sozialen Medien kursieren zahlreiche wahlkampfbezogene Deepfakes. Ein solches Deepfake zeigte Kamala Harris in einem Wahlkampfvideo, das so verändert wurde, dass sie Dinge sagte, die sie in Wirklichkeit nicht gesagt hatte, z. B. „Ich wurde gewählt, weil ich die ultimative Diversity-Kandidatin bin“.