Die Klage eines Forschers, der versuchte, eine Browser-Erweiterung für Facebook namens „Unfollow Everything 2.0“ zu entwickeln, wurde vorerst abgewiesen, wie die New York Times berichtet. Ethan Zuckerman vom Knight First Amendment Institute an der Columbia University hatte versucht, das Sektion 230-Gesetz auf eine neue Art und Weise zu nutzen, um Meta dazu zu zwingen, ihm die Entwicklung eines Tools zu erlauben, das den Newsfeed eines Facebook-Nutzers säubern würde.
Hintergrund: Zuckerman wurde von einem Projekt aus dem Jahr 2021 namens „Unfollow Everything“ inspiriert, das es Menschen ermöglicht hätte, Facebook ohne den Newsfeed zu nutzen oder diesen so zu kuratieren, dass nur Beiträge von bestimmten Personen angezeigt werden. Facebook verklagte jedoch den Briten, der die Erweiterung entwickelt hatte, und sperrte sein Konto dauerhaft.
Um ein ähnliches Schicksal zu vermeiden, berief sich Zuckerman auf Abschnitt 230 des Communications Decency Act von 1996, der zwar in erster Linie darauf abzielt, Technologieplattformen vor illegalen Nutzeraktivitäten zu schützen, aber auch eine gesonderte Klausel enthält, die Entwickler von Drittanbieter-Tools schützt, „die es Personen ermöglichen, … Inhalte zu blockieren, die sie für anstößig halten“. Er forderte das Gericht auf, diese Klausel anzuerkennen und ihm zu erlauben, die Browser-Erweiterung „Unfollow Everything 2.0“ zu entwickeln, ohne dass dies Konsequenzen für Meta hätte.
Das Gericht gab jedoch dem Antrag von Meta statt, die Klage abzuweisen, und fügte hinzu, dass der Forscher sie zu einem späteren Zeitpunkt einreichen könne. „Wir sind enttäuscht, dass das Gericht der Meinung ist, Professor Zuckerman müsse das Tool programmieren, bevor das Gericht über den Fall entscheidet“, sagte Zuckermans Anwalt. „Wir sind weiterhin der Meinung, dass Abschnitt 230 Werkzeuge zum Schutz der Nutzer schützt und freuen uns darauf, dass das Gericht dieses Argument zu einem späteren Zeitpunkt prüfen wird.“ Ein Sprecher von Meta bezeichnete die Klage als „unbegründet“.
Meta hat bereits in der Vergangenheit Forscher kaltgestellt und die Facebook-Konten eines Teams der New York University deaktiviert, das 2021 versuchte, das Targeting politischer Werbung zu untersuchen. Im Jahr 2022 hingegen nutzte Meta 48 Millionen wissenschaftliche Artikel, um ein KI-System namens Galactica zu trainieren, das nach nur zwei Tagen wegen der Verbreitung von Fehlinformationen abgeschaltet wurde.