US-Senatoren fordern Regulierungsbehörden auf, mögliche Kartellrechtsverstöße durch KI zu untersuchen

Die US-Regierung hat die potenziell negativen Auswirkungen von generativer KI auf Bereiche wie Journalismus und die Erstellung von Inhalten erkannt. Senatorin Amy Klobuchar hat zusammen mit sieben demokratischen Kollegen die Federal Trade Commission (FTC) und das Justizministerium aufgefordert, generative KI-Produkte wie ChatGPT auf mögliche Kartellrechtsverstöße zu untersuchen, schrieben sie in einer Pressemitteilung.

„Vor kurzem haben mehrere marktbeherrschende Online-Plattformen neue generative KI-Funktionen eingeführt, die Nutzeranfragen beantworten, indem sie Online-Inhalte aus anderen Quellen oder Plattformen zusammenfassen oder in einigen Fällen einfach wiederkäuen“, heißt es in dem Schreiben. „Die Einführung dieser neuen generativen KI-Funktionen bedroht die Fähigkeit von Journalisten und anderen Autoren von Inhalten, eine Vergütung für ihre wichtige Arbeit zu erhalten.“

Die Gesetzgeber wiesen auch darauf hin, dass herkömmliche Suchergebnisse die Nutzer zu den Websites der Verlage führen, während KI-generierte Zusammenfassungen die Nutzer auf der Suchplattform halten, „wo nur diese Plattform durch Werbung und Datenerfassung von der Aufmerksamkeit der Nutzer profitieren kann“.

Die Tatsache, dass KI Nachrichtenseiten ausbeuten kann, ohne die Nutzer zur ursprünglichen Quelle weiterzuleiten, könnte eine Form des Verdrängungsverhaltens oder eine unlautere Wettbewerbsmethode darstellen, die gegen das Kartellrecht verstößt“, so die Schlussfolgerung der Gesetzgeber. (Dies ist nicht nur ein möglicher Verstoß gegen das Urheberrecht, sondern eine ganz andere Rechtsfrage.)

Der Gesetzgeber hat bereits eine Reihe von Gesetzentwürfen vorgelegt, um Künstler, Journalisten und andere vor der unbefugten Nutzung generativer KI zu schützen. Im Juli brachten drei Senatoren den COPIED Act ein, um die Zunahme von KI-Inhalten und Deepfakes zu bekämpfen und zu überwachen. Später im Monat brachte eine Gruppe von Senatoren den NO FAKES Act ein, ein Gesetz, das es illegal machen würde, die Stimme oder das Bild einer Person ohne deren Zustimmung digital zu reproduzieren.

Künstliche Intelligenz stellt eine besonders große Gefahr für den Journalismus dar, sowohl auf lokaler als auch auf globaler Ebene, da die Einnahmequellen, die eine originelle und investigative Berichterstattung ermöglichen, verschwinden. Die New York Times zitierte beispielsweise Fälle, in denen ChatGPT seinen Nutzern „fast wörtliche Auszüge“ aus bezahlten Artikeln lieferte. OpenAI hat kürzlich eingeräumt, dass es unmöglich ist, generative KI ohne urheberrechtlich geschütztes Material zu trainieren.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert