Das Oberlandesgericht Frankfurt am Main hat mit seinem Urteil vom 25. Januar 2024 (Az. 16 U 65/22) neue Maßstäbe in der rechtlichen Beurteilung der Verantwortlichkeit von Social-Media-Plattformbetreibern gesetzt. In diesem Urteil wurde die Pflicht von Meta, dem Betreiber von Facebook, zur Löschung rechtswidriger Inhalte deutlich ausgeweitet. Diese Entscheidung, die auf der Grundlage des Urteils des Landgerichts Frankfurt am Main (Az. 2-03 O 188/21) erging, stellt eine signifikante Weiterentwicklung in der Rechtsprechung dar und könnte prägend für die zukünftige Regulierung von Social-Media-Plattformen sein. Sie reflektiert eine zunehmende Sensibilisierung für die Notwendigkeit, digitale Kommunikationsräume vor rechtswidrigen Inhalten zu schützen, und unterstreicht die Verantwortung der Plattformbetreiber in diesem Kontext.
Fallhintergrund und rechtliche Bewertung
Im Zentrum des Falles stand ein Meme, das eine Bundestagsabgeordnete von Bündnis90/Die Grünen mit einem erfundenen Zitat abbildete, welches sie nie getätigt hatte. Dieses Meme wurde auf der Plattform Facebook verbreitet und führte zu rechtlichen Auseinandersetzungen. Das Oberlandesgericht Frankfurt am Main bestätigte in seiner Entscheidung die Auffassung des Landgerichts Frankfurt am Main, dass Meta, als Betreiber von Facebook, nicht nur zur Löschung identischer, sondern auch sinngleicher Inhalte verpflichtet ist. Diese Verpflichtung ergibt sich aus der Notwendigkeit, das allgemeine Persönlichkeitsrecht und das Recht am eigenen Wort der Klägerin zu schützen, welches in Artikel 2 Absatz 1 in Verbindung mit Artikel 1 Absatz 1 des Grundgesetzes verankert ist.
Die Entscheidung des OLG Frankfurt am Main stützt sich auf die Grundsätze der Störerhaftung, die besagen, dass ein Plattformbetreiber für rechtswidrige Inhalte haftbar gemacht werden kann, sobald er Kenntnis von diesen hat. Dieser Aspekt ist besonders relevant, da er die Verantwortung von Plattformbetreibern wie Meta für die auf ihrer Plattform veröffentlichten Inhalte hervorhebt. Darüber hinaus bezieht sich das Gericht auf die E-Commerce-Richtlinie (Richtlinie 2000/31/EG), insbesondere auf Artikel 14, der die Haftung von Hostprovidern für von Nutzern bereitgestellte Informationen regelt. Diese Richtlinie spielt eine zentrale Rolle in der Beurteilung der Verantwortlichkeit von Online-Diensteanbietern.
Das Gericht betonte in seiner Urteilsbegründung, dass die Kenntniserlangung von rechtswidrigen Inhalten bei Meta eine aktive Handlungspflicht auslöst. Diese Pflicht beschränkt sich nicht nur auf die Entfernung identischer Inhalte, sondern erstreckt sich auch auf sinngleiche Inhalte. Dies bedeutet, dass Meta verpflichtet ist, Inhalte zu entfernen, die in ihrer Aussage und Bedeutung dem ursprünglichen rechtswidrigen Post entsprechen, auch wenn sie in ihrer Formulierung oder Darstellung variieren. Diese Auslegung der Löschpflichten stellt eine erhebliche Erweiterung der bisherigen Rechtsprechung dar und unterstreicht die Bedeutung des Persönlichkeitsschutzes im digitalen Raum.
Auswirkungen auf Meta und Social-Media-Regulierung
Dieses Urteil könnte als Blaupause für zukünftige Fälle gegen Meta und andere Social-Media-Plattformen dienen. Es zeigt auf, dass eine effektive Kontrolle und Regulierung von Online-Inhalten möglich ist, ohne dabei die Grenzen der Zumutbarkeit für die Plattformbetreiber zu überschreiten. Die Entscheidung legt nahe, dass Meta und ähnliche Unternehmen nicht nur reaktiv, sondern auch proaktiv handeln müssen, um rechtswidrige Inhalte zu identifizieren und zu entfernen. Das Urteil verdeutlicht, dass Meta eine erweiterte Verantwortung für die auf seiner Plattform veröffentlichten Inhalte trägt. Es legt fest, dass Meta nicht nur auf konkrete Hinweise reagieren, sondern auch eigene Mechanismen zur Identifizierung rechtswidriger Inhalte entwickeln muss. Dies könnte den Einsatz fortschrittlicher KI-Technologien zur Vorfilterung und eine intensivere manuelle Überprüfung erfordern.
Zukünftige Rechtsprechung und Fazit
Das Urteil des Oberlandesgerichts Frankfurt am Main (Az. 16 U 65/22) stellt einen signifikanten Fortschritt in der rechtlichen Bewertung und Regulierung von Internetinhalten und Social-Media-Plattformen dar. Es definiert deutlich die Verantwortlichkeiten von Plattformbetreibern wie Meta, aktiv gegen Hassrede und rechtswidrige Inhalte vorzugehen. Diese Entscheidung könnte wegweisend für die zukünftige Rechtsprechung in diesem Bereich sein und unterstreicht die Notwendigkeit für Betreiber digitaler Plattformen, effektive und verantwortungsbewusste Methoden zur Überwachung und Kontrolle der auf ihren Plattformen veröffentlichten Inhalte zu entwickeln.
Das Urteil ist besonders interessant, da es in einer Zeit erfolgt, in der Meta bei Rechtsanwälten zunehmend in Verruf gerät. Dies liegt vor allem an der intensiven Nutzung von Künstlicher Intelligenz (KI) für die Moderation und Sperrung von Inhalten auf ihren Plattformen. Diese KI-Systeme sind bekannt dafür, teilweise sehr fehleranfällig zu sein, was zu ungerechtfertigten Sperrungen und einer unzureichenden Filterung von rechtswidrigen Inhalten führen kann. Das Urteil des OLG Frankfurt am Main könnte daher als ein kritisches Signal an Meta und andere Plattformbetreiber verstanden werden, ihre derzeitigen Praktiken zu überdenken und zu verbessern. Die Entscheidung hebt hervor, dass eine bloße Verlassung auf automatisierte Systeme nicht ausreicht, um den rechtlichen Verpflichtungen nachzukommen. Es wird erwartet, dass dieses Urteil die Diskussion über die Effektivität und Zuverlässigkeit von KI-gestützten Moderationssystemen weiter anregt und möglicherweise zu einer strengeren Regulierung und Überwachung dieser Technologien führt. Für Rechtsanwälte und andere juristische Fachkräfte bietet das Urteil einen interessanten Einblick in die sich entwickelnden rechtlichen Rahmenbedingungen im digitalen Raum und unterstreicht die Bedeutung einer ausgewogenen und effektiven Regulierung von Online-Plattformen.