Bayerns Medienaufsicht hat immer mehr Arbeit mit der Prüfung strafbarer Inhalte im Internet. Im vergangenen Jahr seien knapp 10.000 Fälle geprüft worden, teilte die Bayerische Landeszentrale für neue Medien (BLM) mit. Bei einem Großteil, in etwa 8.500 Fällen, sei es um die Verwendung von Kennzeichen verfassungswidriger Symbole, Volksverhetzung und die Verharmlosung oder Leugnung des Holocausts gegangen. Im Jahr zuvor lag die Gesamtzahl noch bei mehr als 3.700 Prüffällen - also weniger als der Hälfte.
Diese Inhalte zu entfernen, ist allerdings nicht einfach. Denn zum einen müssen Ermittler die Beiträge für Strafverfahren gegen die Täter und Täterinnen sichern, zum anderen kann die BLM Inhalte nicht selbst löschen. Dafür sind in vielen Fällen die Plattformen zuständig, auf denen die Beiträge geteilt wurden.
2025 meldeten die bayerischen Medienaufseher deshalb mehr als 3.500 Fälle an Plattformen, um Inhalte löschen zu lassen. «In vielen Fällen» seien diese dann auch schnell entfernt worden, teilte die BLM mit. Wie zuverlässig gelöscht werde, hänge aber ein Stück weit von der jeweiligen Plattform ab.
Bayerns Justizminister: Vorgehen wichtig für Meinungsfreiheit
«Meinungsfreiheit ist ein hohes Gut und zentral für das Funktionieren unserer Demokratie», sagte Bayerns Justizminister Georg Eisenreich (CSU) in München. «Wer die Meinungsfreiheit schützen will, muss strafbaren Hass bekämpfen.»
Dafür seien eingespielte Verfahren von Ermittlern und Medienaufsicht wichtig, betonte BLM-Präsident Thorsten Schmiege. Denn erst, wenn Polizei und Staatsanwaltschaften strafbare Inhalte als Beweise gesichert haben, setzt sich die Medienaufsicht bei Plattformen für deren Löschung ein.
Kommen diese der Aufforderung nicht nach, kann die Kommission für Jugendmedienschutz (KJM) die Entfernung anordnen. Beim Löschen selbst ist die Medienaufsicht aber auf die Plattformen angewiesen. Mehr Handhabe hat die BLM dagegen bei Anbietern, die selbst im Freistaat sitzen. Ihnen kann die KJM die Verbreitung der Inhalte untersagen - und Bußgelder anordnen.
Medienaufsicht: Plattformen sollten selbst haften
BLM-Präsident Schmiege forderte deshalb zuletzt, mehr Druck auf Plattformen zur Löschung strafbarer Inhalte auszuüben. «Solange Plattformen auch bei unzulässigen und strafbaren Inhalten erst nach Hinweis tätig werden müssen, bleiben Aufsicht und Strafverfolgung im Reaktionsmodus», betonte Schmiege. «Erst wenn X, Facebook oder TikTok für rechtswidrigen Content haften, entsteht ein wirksamer Anreiz, illegale Inhalte schneller und konsequenter zu entfernen.»
Um sich mit mehr Fällen zu beschäftigen, hat die BLM laut Präsident Schmiege aber kein zusätzliches Personal bekommen. Stattdessen habe sich der Fokus der Aufseher über Zeit geändert: Über 90 Prozent der geprüften Verstöße kämen inzwischen aus dem Internet.
Copyright 2026, dpa (www.dpa.de). Alle Rechte vorbehalten