Insgesamt 24,6 Millionen Inhalte auf der Plattform Facebook sowie weitere 2,7 Millionen Inhalte auf der Plattform Instagram wurden von Mark Zuckerbergs Meta alleine im März gelöscht, so ein „Compliance-Bericht“ des Internetgiganten.
„Der Bericht beschreibt unsere Bemühungen, schädliche Inhalte von Facebook und Instagram zu entfernen, und zeigt unser anhaltendes Engagement, Facebook und Instagram sicher und inklusiv zu machen“, sagte Meta in einer von der Times of India (TOI) zitierten Erklärung. „Wir nutzen eine Kombination aus künstlicher Intelligenz, Berichten aus unserer Community und der Überprüfung durch unsere Teams, um Inhalte zu identifizieren und zu überprüfen, die gegen unsere Richtlinien verstoßen“, heißt es darin weiter.
Laut dem Compliance-Bericht erhielt Meta 656 Berichte über anstößige Inhalte über das „indische Beschwerdesystem“ für Facebook und 1.150 Berichte für Instagram. Meta erklärte, auf 100 Prozent dieser Meldungen reagiert zu haben. Bei den meisten Vorfällen auf Facebook und bei etwa der Hälfte der Berichte auf Instagram gab Meta an, „den Nutzern Tools zur Verfügung zu stellen, mit denen sie ihre Probleme selbst lösen können“. Der Rest der Millionen gelöschter Inhalte wurde Berichten zufolge von Facebook-Mitarbeitern oder automatischen Systemen entdeckt. Die meisten der gelöschten Beiträge wurden als „Spam“ eingestuft, aber 2,5 Millionen enthielten angeblich „gewalttätige und grafische Inhalte“ und 2,1 Millionen enthielten „Inhalte im Zusammenhang mit Nacktheit und sexuellen Aktivitäten von Erwachsenen“ (wobei man sich fragen kann, was mit entsprechendem Material von Kindern auf der Plattform geschieht).
Dieses restriktive Vorgehen liegt jedoch nicht nur an den eigenen Content-Richtlinien, sondern auch an den nationalen Vorschriften in dem südasiatischen Land. Indien hat im Mai 2021 eine umstrittene Reihe von Internetvorschriften erlassen, die soziale Medienplattformen dazu verpflichten, „einen monatlichen Compliance-Bericht mit Einzelheiten zu eingegangenen Beschwerden und ergriffenen Maßnahmen zu veröffentlichen“. Die Unternehmen wurden außerdem verpflichtet, einen „Chief Compliance Officer“ und einen „Beschwerdemanager“ zu ernennen, der in Indien lebt. Die Social-Media-Unternehmen wurden von indischen Gerichten stark unter Druck gesetzt, die Vorschriften einzuhalten. Damit ist die Lage ähnlich strikt wie in Deutschland und der Europäischen Union, wo die Politik von den Social Media-Unternehmen umfangreiche Zensurmaßnahmen einfordern.
Das Beispiel Indien zeigt damit, wie das Zusammenspiel von eigenen Content-Regeln (z.B. Facebooks Kampf gegen konservative Inhalte) und immer schärfer werdenden Bemühungen der Politik, die Meinungsfreiheit der Bürger einzuschränken, zu einer Löschwelle im Internet führt. Im Falle Indiens können Regierungsbehörden beispielsweise Plattformen wie Facebook oder YouTube dazu anhalten, Nutzerkonten zu blocken und Inhalte zu löschen, wenn diese „Desinformationen“ verbreiten, die einen Bezug zur nationalen Sicherheit, den Beziehungen zum Ausland oder der öffentlichen Ordnung haben.