OLG Frankfurt zu Prüfpflichten bei Deepfakes: Mehr Verantwortung für Plattformbetreiber nach erstmaligem Hinweis

Wer im digitalen Zeitalter auf Plattformen wie Social Media unterwegs ist, weiß: Das Internet vergisst nichts – und blendet Persönlichkeitsrechte oft genug aus. Insbesondere Deepfakes und täuschend echte Falschdarstellungen nehmen rasant zu, automatisierte Erkennungsmethoden stehen oft auf der Tagesordnung. Doch wie weit reicht die Verantwortung der Betreiber solcher Plattformen wirklich, wenn Dritte Persönlichkeitsrechte verletzen? Das Oberlandesgericht Frankfurt hat mit Beschluss vom 4. März 2025 (16 W 10/25) eine bemerkenswerte Antwort gegeben. Nach einem ersten Hinweis auf eine Persönlichkeitsrechtsverletzung muss der Hostprovider künftig auch ohne weitere Hinweise sinngleiche Inhalte entfernen.

Ein neuer Meilenstein im Prüfpflichten-Dschungel

Noch vor wenigen Jahren mussten große Social-Media-Netzwerke und Hostprovider lediglich reagieren. Nur auf ganz konkrete Hinweise zu bestimmten URLs mussten sie tätig werden und entsprechende Inhalte sperren. Generelle Überwachungspflichten kannten Gesetz und Rechtsprechung bislang nicht – aus guten Gründen. Anbieter sollten nicht zum „Internetpolizisten“ werden. Im Kern lautete das Prinzip: Keine proaktive Prüfung, sondern Löschung nur nach einer ausreichend konkreten Meldung.

Der aktuelle Beschluss des OLG Frankfurt signalisiert einen spürbaren Wandel im Umgang mit rechtsverletzenden Inhalten und vor allem deren Wiederholungen. Die Entscheidung bezieht sich auf einen Fall, der symptomatisch für das Zeitalter der Künstlichen Intelligenz ist. Ein Betroffener musste erleben, wie unter unbefugter Verwendung seines Namens, Bildnisses und seiner Stimme (per Deepfake-Technologie) behauptet wurde, er bewerbe gesundheitsbezogene Produkte. Nachdem das erste Video entfernt worden war, tauchte ein sinngleicher Clip erneut auf der Plattform auf – mit demselben Persönlichkeitsverletzungskern, aber geringfügigen Abweichungen. Die Frage: Musste der Hostprovider erst wieder auf einen konkreten Hinweis warten oder von sich aus aktiv werden?

Der Fall: Deepfake-Werbung und der Schutz vor Persönlichkeitsrechtsverletzungen

Dem Verfahren lagen Auftritte eines Antragstellers zugrunde, der durch Deepfake-Videos auf einer Social-Media-Plattform mit Werbung für Diätpräparate und Abnehmmittel in Verbindung gebracht wurde. Obwohl er nachweislich nie wie im Video dargestellt geäußert oder geworben hatte. Für Betroffene solcher Fälschungen können solche Manipulationen erheblichen Imageschaden bedeuten, ganz zu schweigen von den wirtschaftlichen und emotionalen Folgen.

Die Besonderheit lag darin, dass es nicht um völlig neue, sondern um sinngleiche – also im Aussagekern identische – Inhalte ging, die nach Löschung des ursprünglich beanstandeten Videos auf der Plattform weiterhin abrufbar waren. Der Plattformbetreiber rühmte sich damit, nach konkreten Hinweisen umgehend tätig zu werden. Er weigerte sich jedoch, darüber hinaus nach sinngleichen Inhalten zu suchen und diese von sich aus zu unterbinden.

Der gerichtliche Weg: Vom Landgericht zum OLG Frankfurt

Das Landgericht Frankfurt hatte noch vergleichsweise restriktiv entschieden und einen sehr weitreichenden Unterlassungsantrag abgelehnt. Es stellte darauf ab, das Verbot solle sich einzig auf die konkret benannten Videos, nicht jedoch auf sämtliche sinngleichen Inhalte erstrecken. Im Beschwerdeverfahren vor dem OLG Frankfurt wurde hingegen klargestellt. Nach einem qualifizierten Hinweis, der Persönlichkeitseingriffe klar benennt und typische Deepfake-Merkmale aufführt, beginnt eine Prüfpflicht, die auch sinngleiche Inhalte auf der Plattform umfasst. Der Hostprovider muss also nicht nur das gemeldete Video, sondern auch in ihrem Aussagekern entsprechende Inhalte, die auf andere Weise aber denselben rechtswidrigen Eindruck erwecken, löschen und sperren.

Bemerkenswert ist, dass das Gericht dabei differenziert. Es geht nicht um jegliche Inhalte, die annähernd dasselbe Thema streifen, sondern um sinngleiche Beiträge – also solche, bei denen wesentliche Merkmale übereinstimmen und der rechtsverletzende Eindruck erhalten bleibt. Leichte Abwandlungen im Text, andere Überschriften oder nur unwesentliche gestalterische Änderungen heben die Prüfpflicht nicht auf. Entscheidend ist der Gesamteindruck des veröffentlichten Inhalts.

Rechtlicher Rahmen: Vom Störerprinzip bis zum Digital Services Act

Zur Abgrenzung der Prüfpflichten nimmt das OLG Frankfurt die jüngere Rechtsprechung des Bundesgerichtshofs (Störerhaftung) und des Europäischen Gerichtshofs auf. Das Gericht wendet sie im Lichte des seit 2024 in Kraft getretenen Digital Services Act (DSA) an. Dabei bleibt das Grundprinzip erhalten: Hosting-Plattformen sind nicht verpflichtet, sämtliche Inhalte pauschal vorab zu kontrollieren. Aber: Sobald sie durch eine konkrete Meldung Kenntnis von einer Rechtsverletzung erlangen, müssen sie aktiv werden – und dabei auch „sinngleiche“ Inhalte erfassen.

Das Gericht leitet dies insbesondere aus der Pflicht zu effektiver Rechtsdurchsetzung im Zeitalter von KI und Deepfakes ab. Der Schutz von Persönlichkeitsrechten – gerade wenn sie durch manipulierte Medieninhalte wie Deepfake-Videos verletzt werden – genießt ein überragendes Gewicht. Plattformanbieter werden zunehmend in die Pflicht genommen, nach dem ersten Verstoß automatisierte Systeme sowie Künstliche Intelligenz einzusetzen, um Wiederholungsfälle proaktiv aufzuspüren und zu unterbinden.

Was bedeutet „sinngleich“? – Die Kernprüfung der Plattform

Wann ist ein Inhalt „sinngleich“? Hier orientiert sich das OLG an der EuGH-Rechtsprechung: Nicht jede inhaltliche Annäherung genügt. Relevant sind Beiträge, die im Kern dieselbe Aussage treffen und die Charakteristika der Persönlichkeitsrechtsverletzung wiederholen, zum Beispiel, indem sie Name, Bild und Stimme des Betroffenen in identischer oder nahezu identischer Weise verwenden, um denselben irreführenden Eindruck zu vermitteln.

Dies betont die Grenze zwischen einer zumutbaren Prüfpflicht und einer überbordenden Überwachungspflicht – Letzteres würde die Meinungs- und Kommunikationsfreiheit gerade auf sozialen Plattformen gefährden. Von Anbietern wird keine juristische Feinbewertung oder Einzelfallentscheidung verlangt, wohl aber ein systematisches Vorgehen gegen wort- und bildgleiche Verletzungsfälle. Genau das, so das Gericht explizit, sei heute mit modernen technischen Möglichkeiten – etwa automatisierten Filtersystemen und KI-Verfahren – möglich und zumutbar.

Technische Zumutbarkeit: KI-Einsatz als Pflicht

Spannend ist die Begründung, warum dem Plattformbetreiber diese Prüfpflicht überhaupt zugemutet werden kann: In der Verhandlung verwies der Antragsteller darauf, dass Big-Tech-Plattformen längst über automatisierte Erkennungssysteme verfügen, mit denen Deepfakes, manipulierte Gesundheitswerbung oder die missbräuchliche Verwendung von Stimmen und Bildern ausfindig gemacht werden können. Die Antragsgegnerin konnte dem letztlich nichts Substanzielles entgegensetzen. Das Gericht billigte, dass zumindest nach einer konkreten Meldung sinngleicher Inhalte der Anwendungsfall gegeben ist, in dem automatisierte, KI-gestützte Erkennung zumutbar und erforderlich ist. Die Plattform muss die Prüfpflicht deshalb durchlaufen. Einfache Hinweise auf fehlende technische Mittel oder die Behauptung, man könne das nicht leisten, greifen nicht mehr.

Das Urteil im Detail: Unterlassungsanspruch ja – aber nur bei kumulativer Persönlichkeitsrechtsverletzung

In puncto Unterlassungsanspruch entschied das OLG Frankfurt differenziert. Die Unterlassungsverfügung richtet sich nicht global gegen beliebige Inhalte, sondern nur gegen die spezielle Verletzungsform, bei der Name, Stimme und Bild des Klägers gemeinsam verwendet werden, um ihn als Werbeträger für die beworbenen Produkte erscheinen zu lassen. Diese Einschränkung erfolgte aus der Überlegung heraus, dass Einzelmerkmale (z.B. nur Name, aber ohne Deepfake-Video) für den durchschnittlichen Nutzer bereits als Fälschung erkennbar wären und somit nicht dieselbe Persönlichkeitsrechtsverletzung begründen.

Dem Antragsteller half, dass die Wiederholungsgefahr schon mit dem ersten erneuten Auftauchen eines sinngleichen Videos eindeutig begründet ist. Ein Umstand, der die Dringlichkeit des gerichtlichen Verbots unterstreicht.

Das OLG Frankfurt auf der Linie des EuGH: Plattformen müssen handeln

Die Entscheidung des OLG Frankfurt steht im Einklang mit einschlägigen EuGH-Urteilen (wie Glawischnig-Piesczek/Facebook Ireland). Plattformen dürfen verpflichtet werden, nicht nur konkret beanstandete, sondern auch in ihrem Kern sinngleiche Inhalte zu sperren oder zu löschen – soweit dies technisch möglich und hinreichend spezifiziert ist. Automatisierte Suchmechanismen und Filtertechnologien erlauben es heute ohne Weiteres, solche Anforderungen zu erfüllen.

Bedeutung und Auswirkungen für Unternehmen, Ärzte und Betroffene

Was heißt das konkret für Unternehmer, Ärzte, Freiberufler oder jeden, der auf Social Media von Deepfakes betroffen ist? Die neue Rechtslage stärkt die Möglichkeiten, sich gegen wiederholte Fälschungen effizient zu schützen. Wurde einer Plattform einmal die konkrete Persönlichkeitsrechtsverletzung dargelegt, kann man verlangen, dass auch identische und sinngleiche Fälschungen umgehend gesperrt werden. Plattformbetreiber müssen dazu ihre maschinellen Prüfmechanismen gezielt einsetzen.

Für Ärzte etwa, die durch gefälschte Bewertungen oder manipulierte Videos auf Portalen wie Jameda an den Pranger gestellt werden, bedeutet dies einen erheblichen Fortschritt. Es reicht nicht mehr, immer wieder neue Hinweisrunden zu drehen. Es wird die Prüfpflicht durch den ersten qualifizierten Hinweis ausgelöst. Der Plattformbetreiber trägt nun das Risiko und die Pflicht zur aktiven Unterbindung weiterer Kerngleichverletzungen.

Fazit: Die Prüfpflicht als Schlüssel zum effektiven Rechtsschutz im Netz

Die Entscheidung des OLG Frankfurt markiert einen wichtigen Schritt zu mehr Schutz im digitalen Raum, ohne die Plattformbetreiber unzumutbar zu überfordern. Das Gleichgewicht zwischen Kommunikationsfreiheit und Persönlichkeitsrecht tariert das Gericht im Lichte moderner technischer Möglichkeiten neu aus. Wer konkrete Deepfake-Verletzungen nachweist, kann erwarten, dass die Wiederholung durch sinngleiche Inhalte künftig viel wirksamer unterbunden wird. Plattformbetreiber hingegen müssen ihre Prüfprozesse kritisch prüfen und gegebenenfalls technisch nachrüsten. Der Rechtsrahmen ist gesetzt – und entspricht sowohl den Anforderungen des DSA wie auch den Interessen der Betroffenen.

Gerne unterstütze ich Sie dabei, Ihre rechtlichen Interessen im Bereich Reputationsmanagement zielgerichtet und wirksam durchzusetzen. Sollten Sie Opfer einer ähnlichen Persönlichkeitsrechtsverletzung im Internet geworden sein, berate und begleite ich Sie gerne strategisch und individuell bei der Durchsetzung Ihrer Ansprüche und dem Schutz Ihrer Online-Reputation.

Schreiben Sie einen Kommentar

WordPress Cookie Plugin von Real Cookie Banner