+49 (0) 221 - 290270-40
info@medienrechtsanwaelte.de

Renate Künast siegt gegen Facebook-Betreiber „Meta“

Plattformbetreiber müssen selbst aktiv werden

 
Mit seiner jüngsten Entscheidung vom 25.01.2024 (OLG Frankfurt, Urt. v. 25.01.2024, Az. 16 U 65/22) nimmt das Oberlandesgericht Frankfurt Plattformbetreiber in die Pflicht, ihre Inhalte selbst auf ihnen bereits bekannte (!) gleiche und gleichartige Rechtsverletzungen zu prüfen.
 
I. Was ist überhaupt passiert?
Die Bundestagsabgeordnete Renate Künast (Bündnis 90/Die Grünen) ist im Internet immer wieder Hasskommentaren und diffamierenden Äußerungen gegen ihre Person ausgesetzt gewesen.
Die Politikerin hatte sich in der Vergangenheit bereits mehrere Male erfolgreich dagegen zur Wehr gesetzt.
 
Zuletzt klagte Frau Künast gegen „Meta“, weil ein Facebook-User ein Meme postete, welches ein Foto der Politikerin mit ihrem Vor- und Nachnamen sowie dem Zitat „Integration fängt damit an, dass Sie als Deutscher mal türkisch lernen“ zeigte.
Diese Äußerung hatte Frau Künast nie getätigt. Durch das Meme wurde der Eindruck vermittelt, sie hätte diese Aussage getroffen.
Das Meme wurde von mehreren Nutzern geteilt und auf der Plattform weiterverbreitet.
 
Gegen die Veröffentlichung dieses Memes wehrte sich Frau Künast erfolgreich vor dem Landgericht Frankfurt (LG Frankfurt, Urteil v. 08.04.2022, Az. 2-03 O 188/21). Sie klagte auf Unterlassung und Schadensersatz.
 
Das Landgericht verpflichtete Meta dazu, es zu unterlassen das Meme mit dem Zitat öffentlich zugänglich zu machen.
 
Meta legte gegen dieses Urteil Berufung ein und scheiterte damit nun auch vor dem OLG Frankfurt.
 
II. Urteil des OLG Frankfurt
Das Urteil des OLG weitete die Pflicht zur Löschung rechtswidriger Inhalte sogar noch aus und ist daher eine bedeutende Weiterentwicklung der bisherigen Rechtsprechung.
 
In seiner Entscheidung bestätigte das OLG die Auffassung des Landgerichts, dass der Plattformbetreiber Meta nicht nur eine Pflicht zur Löschung identischer Inhalte sondern auch kerngleicher, also inhaltlich ähnlicher Inhalte hat. Diese Verpflichtung sei notwendig, um das allgemeine Persönlichkeitsrecht und das Recht am eigenen Wort der betroffenen Person zu schützen.
 
In seiner Entscheidung stützt sich das OLG auf die Grundsätze der Störerhaftung, wonach ein Plattformbetreiber für rechtswidrige Inhalte haftbar gemacht werden kann, sobald er von ihnen Kenntnis erlangt hat.
 
Das bedeutet, dass es nicht ausreicht, wenn ein Plattformbetreiber nur die Inhalte löscht, die Nutzer melden. Der Plattformbetreiber muss nach Bekanntwerden rechtswidriger Inhalte auch aktiv nach identischen und ähnlichen rechtswidrigen Inhalten suchen und diese selbstständig – also ohne Meldung durch Nutzer oder Betroffene - löschen.
 
Diese Entscheidung nimmt „Meta“ in die Pflicht, Inhalte zu entfernen, die in ihrer Aussage und Bedeutung dem ursprünglichen rechtswidrigen Post entsprechen, selbst wenn sie in ihrer Formulierung und Darstellung davon abweichen. Die Kenntniserlangung einer Rechtsverletzung setzt damit eine Handlungspflicht der Plattformbetreiber zur Verhinderung gleicher oder ähnlicher Rechtsverletzungen in Gang.
 
Um ihrer Pflicht zur Löschung von Inhalten nachzukommen, reicht es laut OLG auch nicht aus, sich nur auf KI-Systeme zu verlassen, sondern es ist Aufgabe des Plattformbetreibers zu gewährleisten, dass Posts, die bekannte rechtswidrige Inhalte enthalten, zuverlässig gelöscht werden.
 
Mit der Entscheidung stärkt das OLG den Schutz des Persönlichkeitsrechts im Internet und weitet die Löschpflichten des Plattformbetreibers aus.
 
Es begründet seine Entscheidung mit dem Schutz des allgemeinen Persönlichkeitsrechts aus Art. 2 Abs. 1 in Verbindung mit Art. 1 Abs. 1 Grundgesetz und auf Art. 14 der E-Commerce-Richtlinie 2003/31/EG, welcher die Haftung von Hostprovider für Nutzer der bereitgestellten Informationen regelt.
 
Das Urteil ist noch nicht rechtskräftig. Das Oberlandesgericht hat wegen der grundsätzlichen Bedeutung der Sache die Revision zum BGH zugelassen.
 
Der Streit könnte daher noch in die nächste Runde gehen.
 
III. Auswirkungen
Bisher hat Meta rechtswidrige Inhalte nur auf Antrag der betroffenen Personen gelöscht.
Für Betroffene bedeutete dies, dass identische oder ähnliche Inhalte immer und immer wieder hochgeladen und verbreitet werden konnten, ohne dass diese automatisch gelöscht wurden. Der Betroffene musste die sozialen Medien somit ständig selbst nach neuen Rechtsverletzungen durchsuchen und den Plattformbetreiber zur Löschung auffordern. So kam es dazu, dass rechtswidrige Inhalte häufig noch für längere Zeit online waren und erst viel zu spät gelöscht wurden.
 
Das dürfte nach dieser Entscheidung nun anders aussehen.
 
Die Entscheidung nimmt Plattformbetreiber als Zustandsstörer somit in die Pflicht, selbst gegen Rechtsverletzungen aktiv zu werden. Dadurch können Meta und andere Plattformbetreiber sich nun nicht mehr darauf berufen, für den Content, den Nutzer verbreiten selbst nicht verantwortlich zu sein.
 
Dies könnte auch spannende Auswirkungen auf die technologische Umsetzung der Moderation von sozialen Medien haben. Meta muss sich nun Gedanken machen, ob es eine Möglichkeit gibt, hochgeladene Inhalte mittels eigener Mechanismen auf Rechtsverletzungen zu prüfen. Dies könnte durch neue Technologien oder verstärkte inhaltliche Kontrollen durch Administratoren geschehen.
 
Meta ist dafür bekannt, dass es sich bei der Moderation von Inhalten verstärkt auf die Nutzung von KI (Künstlicher Intelligenz) verlässt. Dies hat zur Folge, dass Meta-Nutzer oder betroffene Personen, die rechtswidrige Inhalte melden, von Meta in der Regel lediglich E-Mails mit Textbausteinen als Antwort erhalten und erst nach mehreren „Meldungen“ eine echte Person als Ansprechpartner haben.
Meta berief sich in den Gerichtsverfahren darauf, dass eine individuelle Sichtung aller Inhalte angesichts der Masse von Beiträgen nicht umsetzbar sei. Dieser Auffassung hat das OLG eine klare Absage erteilt.
Das OLG hält nun die „menschlich-händische Einzelfallbewertung von mittels kombinierter technischer Verfahren automatisch erkannten, bereits hochgeladenen Inhalten“ für zumutbar.
 
Dies bedeutet, dass Meta sich zwar zur vorläufigen Filterung der hochgeladenen Inhalte auf KI-Systeme verlassen darf; im Zweifel müssen aber auch menschliche Mitarbeiter im Einzelfall bewerten, ob es sich um einen rechtswidrigen Inhalt handelt oder nicht.
 
Da die Entscheidung faktisch nicht nur Meta, zu dem auch Instagram und WhatsApp gehören, betrifft, sondern auch andere Social-Media und Video-Plattformen wie YouTube, Twitch und Twitter, ist zu erwarten, dass die Sache wegen ihrer grundsätzlichen Bedeutung bald vor dem BGH verhandelt werden wird.
 
© Januar 2024, Valerie Depireux, Stefan Müller-Römer

Zurück


© 2022 Müller-Römer Rechtsanwälte