Der Moderationsbericht von Bluesky für 2024 zeigt, wie schnell schädliche Inhalte zugenommen haben, als neue Nutzer in großer Zahl hinzukamen.

Bluesky verzeichnete im vergangenen Jahr ein explosives Wachstum, insbesondere gegen Ende des Jahres, was die Plattform dazu zwang, ihre Moderationsbemühungen zu verstärken. In seinem kürzlich veröffentlichten Moderationsbericht für 2024 gab Bluesky an, dass die Zahl der Benutzer von 2,9 Millionen um rund 23 Millionen auf fast 26 Millionen gestiegen sei. Die Moderatoren erhielten 17-mal mehr Nutzerberichte als im Jahr 2023 – 6,48 Millionen im Jahr 2024 im Vergleich zu 358.000 im Vorjahr.

Die meisten dieser Meldungen betrafen „Belästigung, Trolling oder Intoleranz“, Spam und irreführende Inhalte (einschließlich Identitätsdiebstahl und Falschinformationen). Die Existenz von Konten, die sich als andere Personen ausgeben, ist ein bekanntes Problem, das mit der wachsenden Popularität von Bluesky einhergeht, und die Plattform aktualisierte im November ihre Richtlinie zum Identitätswechsel mit einem „aggressiveren“ Ansatz, um dagegen vorzugehen. Damals gab die Plattform an, ihr Moderationsteam vervierfacht zu haben. Dem neuen Bericht zufolge ist das Bluesky-Moderatorenteam auf etwa 100 Personen angewachsen, und es werden weiterhin neue Mitarbeiter eingestellt. „Einige Moderatoren sind auf bestimmte Richtlinienbereiche spezialisiert, wie zum Beispiel auf die Sicherheit von Kindern“, heißt es in dem Bericht.

Andere Kategorien, zu denen Bluesky nach eigenen Angaben viele Meldungen erhalten hat, sind „illegale und dringende Probleme“ und unerwünschte sexuelle Inhalte. Es gab auch 726.000 Meldungen, die als „andere“ gekennzeichnet waren. Bluesky gibt an, im vergangenen Jahr 146 von insgesamt 238 Anfragen von „Strafverfolgungsbehörden, Regierungen und Anwaltskanzleien“ bearbeitet zu haben.

Die Plattform plant für dieses Jahr einige Änderungen bei der Bearbeitung von Meldungen und Beschwerden. Ziel ist es, „die Kommunikation mit den Nutzern zu optimieren“, indem die Nutzer über die Maßnahmen informiert werden, die die Plattform in Bezug auf die von ihnen gemeldeten Inhalte ergriffen hat, und indem den Nutzern die Möglichkeit gegeben wird, Entscheidungen über die Entfernung von Inhalten direkt in der Anwendung anzufechten. Im Jahr 2024 löschten Moderatoren 66.308 Konten, während automatisierte Systeme 35.842 Spam- und Bot-Profile entfernten. „Mit Blick auf 2025 werden wir in stärkere proaktive Erkennungssysteme investieren, um die Nutzerberichte zu ergänzen, da ein wachsendes Netzwerk mehrere Erkennungsmethoden benötigt, um schädliche Inhalte schnell zu identifizieren und zu bekämpfen“, sagt Bluesky.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert