Hostprovider-Haftung für sinngleiche Inhalte: Wichtige Entscheidung des OLG Frankfurt am Main

Im digitalen Zeitalter wird der Schutz der Persönlichkeitsrechte zunehmend komplexer. Eine aktuelle Entscheidung des Oberlandesgerichts Frankfurt am Main markiert einen bedeutenden Meilenstein im Kampf gegen rechtswidrige Inhalte im Internet. Mit dem Beschluss vom 4. März 2025 (Az. 16 W 10/25) hat das Gericht die Pflichten von Plattformbetreibern erheblich erweitert.

Die Kernaussage des Beschlusses

Das OLG Frankfurt am Main hat entschieden, dass Hostprovider – in diesem Fall Meta als Betreiber von Facebook – nach einem Hinweis auf einen rechtsverletzenden Beitrag auch ohne weitere Hinweise sinngleiche Inhalte sperren müssen. Diese weitreichende Verpflichtung umfasst Beiträge mit identischem Text und Bild, selbst wenn diese in der Gestaltung abweichen, etwa durch:

  • unterschiedliche Auflösung
  • veränderte Größe oder Zuschnitt
  • Verwendung von Farbfiltern
  • Einfassung oder Rahmen
  • Änderung typografischer Zeichen
  • Hinzufügung von Elementen wie Untertiteln (Captions), die den Aussagegehalt nicht verändern

Der konkrete Fall: Deep-Fake-Videos auf Facebook

Dem Verfahren lag ein Fall zugrunde, bei dem ein Kläger gegen zwei Deep-Fake-Videos auf Facebook vorging. Diese Videos zeigten ihn fälschlicherweise in einer Werbung für Abnehmmittel. Nachdem das erste Video auf Hinweis des Klägers entfernt wurde, erschien kurz darauf ein nahezu identisches zweites Video. Meta entfernte dieses jedoch nicht eigenständig, sondern erst nach einem erneuten Hinweis des Betroffenen.

Das Gericht sah darin einen Verstoß gegen die Prüfpflichten des Plattformbetreibers. Nach Ansicht des OLG hätte Meta das zweite Video auch ohne neuerlichen Hinweis sperren müssen, da es sich um einen sinngleichen Inhalt handelte.

Fortführung der „Künast-Meme“-Rechtsprechung

Die aktuelle Entscheidung knüpft an die vorherige Rechtsprechung des OLG Frankfurt im sogenannten „Künast-Meme“-Fall an. Dort hatte das Gericht bereits festgestellt, dass Meta verpflichtet ist, nicht nur das ursprüngliche Meme mit einem falschen Zitat der Politikerin Renate Künast zu löschen, sondern auch sinngleiche Varianten – ohne dass die Betroffene diese einzeln melden muss.

Der Künast-Fall betraf ein Meme, das die Politikerin mit einem erfundenen Zitat in Verbindung brachte: „Integration fängt damit an, dass Sie als Deutscher mal türkisch lernen!“ – eine Aussage, die Künast nie getätigt hatte. Das OLG Frankfurt stützte seine Entscheidung auf das Allgemeine Persönlichkeitsrecht der Politikerin und die Verantwortung von Plattformbetreibern, rechtswidrige Inhalte zu entfernen.

Digital Services Act als rechtliche Grundlage

Bemerkenswert an der aktuellen Entscheidung ist, dass das Gericht explizit den zwischenzeitlich in Kraft getretenen Digital Services Act (DSA) berücksichtigt. Diese EU-Verordnung definiert die Pflichten von Online-Plattformen im Umgang mit illegalen Inhalten neu und schafft einen einheitlichen Rechtsrahmen für digitale Dienste in Europa.

Zwar sieht der DSA grundsätzlich keine allgemeine Überwachungspflicht für Hostprovider vor, jedoch müssen diese nach Kenntnis von rechtswidrigen Inhalten zügig handeln. Gemäß Artikel 16 DSA sind Hostprovider verpflichtet, ein effektives Melde- und Abhilfeverfahren einzurichten und nach Erhalt einer qualifizierten Meldung unverzüglich tätig zu werden.

Die Entscheidung des OLG Frankfurt konkretisiert diese Handlungspflicht dahingehend, dass sie sich nicht nur auf den exakt gemeldeten Inhalt beschränkt, sondern auch auf sinngleiche Inhalte erstreckt.

Weitreichende Implikationen für Online-Plattformen

Die Entscheidung hat erhebliche Auswirkungen auf die Betreiber sozialer Netzwerke und anderer Hostprovider:

1. Erweiterte Prüfpflichten

Plattformbetreiber müssen nach einem Hinweis auf einen rechtsverletzenden Inhalt nicht mehr nur den konkreten Beitrag entfernen, sondern auch aktiv nach sinngleichen Inhalten suchen. Dies erfordert deutlich umfangreichere Monitoring-Maßnahmen.

2. Technische Herausforderungen

Die Umsetzung dieser Pflicht stellt Plattformen vor technische Herausforderungen. Es werden fortschrittliche Erkennungssysteme benötigt, die nicht nur exakte Duplikate, sondern auch leicht modifizierte Versionen eines Inhalts identifizieren können.

3. Abwägung mit Meinungsfreiheit

Plattformbetreiber müssen eine sorgfältige Abwägung zwischen dem Schutz der Persönlichkeitsrechte und der Meinungsfreiheit vornehmen. Diese Gratwanderung wird durch die erweiterte Prüfpflicht noch anspruchsvoller.

4. Größerer Ressourcenaufwand

Die Erfüllung der neuen Anforderungen wird voraussichtlich zu einem erhöhten Personalaufwand und Investitionen in KI-gestützte Erkennungstechnologien führen.

Persönlichkeitsrechtsschutz im Zeitalter von Deep-Fakes

Der Fall unterstreicht die wachsende Bedeutung des Schutzes vor Deep-Fake-Inhalten. Diese täuschend echten, KI-generierten Videos oder Bilder stellen eine besondere Bedrohung für das Persönlichkeitsrecht dar, da sie Personen in gefälschten, oft diskreditierenden Kontexten zeigen.

Deep-Fakes können verschiedene rechtliche Aspekte verletzen:

  • Das allgemeine Persönlichkeitsrecht (wenn ohne Einwilligung erstellt oder verbreitet)
  • Urheber- und Markenrechte (bei Verwendung geschützter Bilder oder Stimmen)
  • Datenschutzrecht (als unbefugte Verarbeitung personenbezogener Daten)

Betroffenen stehen dabei verschiedene Rechtsschutzmöglichkeiten zur Verfügung:

  • Zivilrechtliche Ansprüche auf Unterlassung, Schadensersatz und Schmerzensgeld
  • Die Möglichkeit, einstweilige Verfügungen zu erwirken
  • In bestimmten Fällen strafrechtliche Verfolgung, insbesondere bei Betrug oder systematischer Desinformation

Kritische Bewertung der Entscheidung

Die Entscheidung des OLG Frankfurt stärkt einerseits den Persönlichkeitsrechtsschutz im Internet erheblich. Sie trägt der Tatsache Rechnung, dass rechtsverletzende Inhalte oft in leicht modifizierter Form wieder auftauchen und so die Rechte der Betroffenen weiterhin verletzen.

Andererseits wirft die Entscheidung Fragen nach der Verhältnismäßigkeit und praktischen Umsetzbarkeit auf:

  • Wie weit reicht die Pflicht zur eigenständigen Suche nach sinngleichen Inhalten?
  • Welche technischen Maßnahmen sind Plattformbetreibern zumutbar?
  • Besteht die Gefahr einer übermäßigen Löschpraxis aus Sorge vor Haftungsrisiken (Overblocking)?

Ausblick: Die Zukunft der Plattformregulierung

Die Entscheidung des OLG Frankfurt steht im Kontext einer allgemeinen Tendenz zu einer stärkeren Regulierung von Online-Plattformen. Der Digital Services Act stellt dabei nur den Anfang einer umfassenderen Neugestaltung der digitalen Verantwortlichkeiten dar.

Für die Zukunft ist zu erwarten, dass die Rechtsprechung die Pflichten von Plattformbetreibern weiter konkretisieren wird. Dabei wird es darauf ankommen, eine angemessene Balance zwischen effektivem Rechtsschutz einerseits und praktischer Umsetzbarkeit sowie der Wahrung der Meinungsfreiheit andererseits zu finden.

Für Unternehmen, die als Plattformbetreiber agieren, bedeutet dies, dass sie ihre Content-Moderationssysteme und Prozesse überprüfen und gegebenenfalls anpassen müssen. Insbesondere sollten sie sicherstellen, dass sie nicht nur auf einzelne Meldungen reagieren können, sondern auch in der Lage sind, sinngleiche Inhalte zu erkennen und zu entfernen.

Fazit: Stärkung des Persönlichkeitsrechtsschutzes

Mit seiner Entscheidung hat das OLG Frankfurt am Main einen wichtigen Schritt zur Stärkung des Persönlichkeitsrechtsschutzes im Internet unternommen. Die Pflicht zur Sperrung sinngleicher Inhalte ohne erneuten Hinweis stellt zwar höhere Anforderungen an Plattformbetreiber, trägt aber der Realität der digitalen Kommunikation Rechnung, in der rechtsverletzende Inhalte oft in variierter Form wieder auftauchen.

Für Betroffene bedeutet die Entscheidung eine deutliche Erleichterung beim Vorgehen gegen Persönlichkeitsrechtsverletzungen im Internet. Sie müssen nicht mehr jeden einzelnen rechtsverletzenden Inhalt separat melden, sondern können von den Plattformbetreibern ein proaktives Handeln erwarten.

Die praktische Umsetzung dieser erweiterten Pflichten wird die Plattformen vor Herausforderungen stellen, doch letztlich trägt sie zu einem faireren und rechtmäßigeren digitalen Umfeld bei. In einer Zeit, in der Deep-Fakes und andere manipulierte Inhalte zunehmen, ist dies ein wichtiger Schritt zum Schutz der Persönlichkeitsrechte im digitalen Raum.

Schreiben Sie einen Kommentar

WordPress Cookie Plugin von Real Cookie Banner