KI-generierte Inhalte haben laut einer neuen Analyse von Meta eine weitaus geringere Rolle bei der weltweiten Fehlinformation über Wahlen gespielt, als viele Beamte und Forscher befürchtet hatten. In einem Update zu seinen Bemühungen, Dutzende von Wahlen im Jahr 2024 zu schützen, sagte das Unternehmen, dass KI-Inhalte nur einen Bruchteil der Wahlfehlinformationen ausmachten, die von seinen Faktenprüfern entdeckt und gekennzeichnet wurden.
„Während der Wahlperiode bei den oben genannten wichtigen Wahlen machten die Bewertungen von KI-Inhalten im Zusammenhang mit Wahlen, Politik und sozialen Themen weniger als 1 Prozent aller überprüften Fehlinformationen aus“, teilte das Unternehmen in einem Blogbeitrag mit und bezog sich dabei auf Wahlen in den USA, Großbritannien, Bangladesch, Indonesien, Indien, Pakistan, Frankreich, Südafrika, Mexiko und Brasilien sowie auf die EU-Parlamentswahlen.
Das Update kommt, nachdem zahlreiche Regierungsvertreter und Forscher monatelang Alarm geschlagen haben, welche Rolle generative KI bei der Verbreitung von Fehlinformationen über Wahlen in einem Jahr spielen könnte, in dem voraussichtlich mehr als 2 Milliarden Menschen an die Urnen gehen werden. Diese Befürchtungen hätten sich jedoch nicht bewahrheitet, zumindest nicht auf den Plattformen von Meta, so Nick Clegg, Präsident für globale Angelegenheiten des Unternehmens.
„Die Menschen waren verständlicherweise besorgt über die möglichen Auswirkungen, die generative KI auf die bevorstehenden Wahlen in diesem Jahr haben könnte, und es gab alle möglichen Warnungen vor den potenziellen Risiken von Dingen wie weit verbreiteten Deepfakes und KI-gestützten Desinformationskampagnen“, sagte Clegg während eines Briefings mit Journalisten. “Nach dem, was wir über unsere Dienste beobachtet haben, scheinen diese Risiken nicht in nennenswertem Umfang eingetreten zu sein, und die Auswirkungen waren gering und begrenzt.“
Meta machte keine Angaben dazu, wie viele wahlkampfbezogene KI-Inhalte seine Faktenprüfer im Vorfeld wichtiger Wahlen aufgespürt haben. Das Unternehmen sieht täglich Milliarden von Inhalten, so dass selbst kleine Prozentsätze eine große Anzahl von Beiträgen ergeben können. Clegg lobte jedoch die Richtlinien von Meta, einschließlich der Ausweitung der KI-Kennzeichnung zu Beginn dieses Jahres, nachdem das Oversight Board Kritik geäußert hatte. Er wies darauf hin, dass der KI-Bildgenerator von Meta im Monat vor der US-Wahl 590.000 Anfragen nach Bildern von Donald Trump, Joe Biden, Kamala Harris, JD Vance und Tim Walz blockiert habe.
Gleichzeitig hat Meta zunehmend Schritte unternommen, um sich vollständig von der Politik zu distanzieren und einige frühere Bemühungen zur Kontrolle von Fehlinformationen zu verstärken. Das Unternehmen hat die Standardeinstellungen der Nutzer auf Instagram und in Threads geändert, um die Empfehlung politischer Inhalte zu unterbinden, und Nachrichten auf Facebook herabgestuft. Mark Zuckerberg sagte, er bedauere die Art und Weise, wie das Unternehmen während der Pandemie mit einigen seiner Richtlinien zu Fehlinformationen umgegangen sei.
Mit Blick auf die Zukunft sagte Clegg, dass Meta noch immer versuche, die richtige Balance zwischen der Durchsetzung seiner Regeln und der Ermöglichung der freien Meinungsäußerung zu finden. „Wir wissen, dass unsere Fehlerquote bei der Durchsetzung unserer Regeln immer noch zu hoch ist, was die freie Meinungsäußerung behindert“, sagte er. „Ich denke, dass wir jetzt wirklich unsere Anstrengungen verdoppeln wollen, um die Präzision und Genauigkeit, mit der wir vorgehen, zu verbessern“.