KI darf nicht lügen: Haftung des Betreibers für Falschaussagen einer KI

Die Kampagnen-Organisation Campact e.V. hat gemäß einer eigenen Presserklärung vor dem Landgericht Hamburg eine einstweilige Verfügung des gegen die Betreibergesellschaft X.AI LLC des in die Social-Media-Plattform X.com (ehemals Twitter) integrierten KI-Chatbots Grok wegen einer falschen Tatsachenbehauptung erwirkt. Grok ist als Benutzer unmittelbar in die Plattform X.com integriert und ermöglicht Nutzern beispielsweise eine Echtzeit-Faktenprüfung von X-Beiträgen („Hey, @Grok, stimmt das?“). Grok antwortet auf solche Fragen öffentlich mit einem eigenen Post (auch: „Tweet“) unmittelbar im betroffenen Thread.

Campact e.V. erwirkt einstweilige Verbotsverfügung wegen Grok-Tweet

Anlass des Verfahrens war eine unwahre Tatsachenbehauptung des KI-Chatbots Grok. Dieser hatte auf die Nachfrage eines X-Users behauptet, dass Campact e.V. mit Steuergeldern finanziert werde. Die Behauptung ist nach den Angaben von Campact falsch, was auch bereits wiederholt von Gerichten bestätigt worden sei. Campact arbeitete auf der Basis von Spenden.

Die Entscheidung des Landgerichts Hamburg oder eine nähere Begründung sind bislang nicht veröffentlicht. Üblicherweise wird dem Verantwortlichen mit einer solchen einstweiligen Verfügung die Wiederholung der Falschbehauptung „bei Meidung eines für jeden Fall der Zuwiderhandlung festzusetzenden Ordnungsgeldes bis zu 250.000 €“ untersagt. Bei einer Wiederholung der Behauptung durch Grok kann auf Antrag des Verfügungsgläubigers also ein Ordnungsgeld in Höhe von bis zu 250.000 € festgesetzt werden. In der Praxis werden derartige Ordnungsgelder bei einen Zweitverstoß zunächst in einer erheblich niedrigeren Höhe angesetzt – bspw. ein niedriger vierstelliger Betrag – und steigen mit jedem erneuten Verstoß sukzessive an. Zuständig für den Erlass des Ordnungsgelds ist das Gericht, das die die einstweilige Verfügung erlassen hat.

Aktualisierung am 16.10.2025: Mittlerweile liegen nähere Informationen zu der einstweiligen Verfügung vor: Es handelt sich um den Beschluss des Landgerichts Hamburg vom 23.09.2025, Az.: 324 O 461/25.

Rechtsgrundlage des Verbots und Verantwortlichkeit des KI-Betreibers

Angaben zu der Rechtsgrundlage des Verbots enthalten die bisher veröffentlichten Mitteilungen nicht. In der Regel beruhen derartige äußerungsrechtliche Verbotsverfügung auf der Verletzung eines allgemeinen Rahmenrechts nach § 823 Abs. 1 BGB – etwa das Unternehmenspersönlichkeitsrecht oder das Recht am eingerichteten und ausgeübten Gewerbebetrieb. Im vorliegenden Fall kommen beide Rechtsgrundlagen in Betracht: Ein eingetragener Verein ist eine juristische Person nach § 21 BGB und als solcher auch Träger eines eigenen Persönlichkeitsrechts. Außerdem genießt ein eingetragener Verein, der sich am Wirtschaftsverkehr beteiligt, bei dieser Tätigkeit  nach der Rechtsprechung des Bundesgerichtshofs den Schutz des Rechts am eingerichteten und ausgeübten Gewerbebetrieb (BGH, Urteil v. 03.06.2020 – XIII ZR 22/19 ). Die Verletzung beider Rechte können eine Unterlassungsanspruch analog § 1004 BGB auslösen. Der Betreiber einer KI haftet dabei für Rechtsverletzungen, die durch die von ihm betriebene KI begangen werden, entweder als sog. Störer, so hat dies bspw. das Landgericht Kiel im Falle eines Anbieters eines KI-gesteuerten Wirtschaftsinformationsdienstes beurteilt, durch den Falschinformationen zum Vermögensstand eines Unternehmens verbreitet wurden (LG Kiel, Urteil vom 29. Februar 2024 – Az. 6 O 151/23 – Wir berichteten, Volltext abrufbar hier). Als Störer ist nach allgemeiner Rechtsprechung, unabhängig von einem Verschulden, jeder anzusehen, der die Störung adäquat kausal herbeigeführt hat oder dessen Verhalten eine Beeinträchtigung befürchten lässt (bspw. BGH, Urteil vom 05.07.2019 – V ZR 96/18).

Einstweilige Verfügung – eine vorläufige Regelung

Die Entscheidung ist zunächst als sog. einstweilige Verfügung ergangen. Eine einstweilige Verfügung ist eine vorläufige gerichtliche Entscheidung in einem Eilverfahren, die dazu dient, dringende Ansprüche oder Rechtsverhältnisse schnell zu sichern, bevor eine endgültige Entscheidung im Hauptsacheverfahren getroffen wird. Sie kann durch einen Beschluss ohne vorherige Anhörung des Antragsgegners erlassen werden, um zu verhindern, dass während des langwierigen Hauptverfahrens Tatsachen geschaffen werden, die die spätere Entscheidung beeinflussen könnten. X.AI LLC kann gegen die einstweilige Verfügung einen Widerspruch einlegen, auf den hin dann eine mündliche Verhandlung durchgeführt wird und ein Urteil ergeht. Gegen dieses kann Berufung eingelegt werden. Danach ist das Verfügungsverfahren beendet. Weil eine einstweilige Verfügung nur zur vorläufigen Sicherung eines Rechts dient, muss sie entweder vom Verfügungsbeklagten als endgültige Regelung anerkannt werden, oder es muss noch ein zusätzliches Hauptsacheverfahren (Klage) durchgeführt werden, bevor die Angelegenheit endgültig beendet werden kann.

Takeaways und recaps für Medienschaffende, Verlage und Content-Creator

  • Haftung für KI: KI-Systeme operieren nicht aus eigener Kraft – sondern als technische Einrichtung eines Betreibers. Überall dort, wo KI-generierte Inhalte entweder veröffentlicht oder an Dritte weitergegeben werden ist der Betreiber nach den allgemeinen Rechtsgrundsätzen verantwortlich für diese Inhalte. Enthalten die Inhalte unwahre Tatsachenbehauptungen über eine Person oder ein Unternehmen, haftet der Betreiber zivilrechtlich auf Unterlassung, Auskunft und Schadensersatz.
  • Redaktionelle Verantwortung sichern: Wenn KI in Redaktionen oder Content-Workflows eingesetzt wird, sollten Kontrollmechanismen festgelegt werden: Wer prüft, wer freigibt, wer überwacht, wer haftet. Eine KI-Richtlinie hilft Haftungsrisiken zu vermindern. Gleichzeitig beseitigt sie Unsicherheiten in Bezug auf einen zulässigen und akzeptablen Umgang mit KI bei der Erledigung der täglichen Aufgaben.
  • Echtzeitkontrolle: Müssen KI-generierte Echtzeitveröffentlichungen genutzt werden, lassen sich Fehler – etwa durch Halluzinationen – nicht hundertprozentig vermeiden. Sie lassen sich durch ein geeignetes technisches Prozessdesign aber verringern: Etwa durch zusätzliche Kontroll- und Factchecking-Schleifen, am besten von einer zweiten, speziell für diese Aufgabe optimierte KI-Instanz.
  • Schnell handeln bei Fehlern: Bei Echtzeitveröffentlichungen in Online-Medien ist die Einrichtung eines Feedback-Kanals („Inhalte melden“) Pflicht – um Fehler möglichst schnell zu erfassen und ggf. reagieren zu können. Dieser Kanal muss nur nur vorhanden sein, sondern ständig von einem Verantwortlichen überwacht werden.
  • Haftungsrisiken vertraglich regeln: Bei der Nutzung externer KI-Anbieter oder Plattformen empfiehlt sich eine klare vertragliche Zuweisung und Regelung von Verantwortlichkeiten.
  • Transparenz schafft Vertrauen: Offenlegen, wenn Inhalte (auch teilweise) KI-gestützt entstanden sind. Das macht Fehler nachvollziehbar und kann Vorwürfen mangelnder Glaubwürdigkeit vorbeugen.
  • Distanzierung: X.AI LLC haften als Betreiber des X-Accounts von Grok. Äußerungsrechtlich setzt dies voraus, dass die Betreibergesellschaft sich die von Grok auf User-Fragen generierten und geposteten Inhalte „zu eigen macht“. Es ist daher denkbar, dass sich eine Haftungsprivilegierung in derartigen Fällen durch eine klare Distanzierung erreichen lässt, indem die Grok-Posts mit einem inhaltlichen Disclaimer und einer klaren Distanzierung versehen würden (Grok ist eine KI-Chatbot, Antworten können technologisch bedingt fehlerhaft sein, die Nutzung von erfolgt auf eigenes Risiko, x.ai teilt die von Grok geäußerten Behauptungen und Ansichten grundsätzlich nicht usw.). Ob und inwieweit derartige distanzierenden Hinweise für eine Haftungsprivilegierung ausreichen können, hängt vom jeweiligen Kontext ab und wird, da es sich rechtlich um Neuland handelt, letztlich durch die richterliche Rechtsfortbildung entschieden werden müssen. In jedem Fall darf die Faschaussage jedoch nicht wissentlich dauerhaft weiterverbreitet werden, weswegen jedenfalls unbedingt ein Rückkanal („Inhalte melden“) angeboten werden und die Falschbehauptung spätestens auf Hinweise gelöscht werden muss.
  • KI-Kennzeichnung wird Pflicht: Ab dem 2. August 2026 tritt in der EU die Kennzeichnungspflicht nach Art. 50 KI-VO für bestimmte KI-generierte Inhalte in Kraft. Inhalte, die mit KI erstellt und als echt wahrgenommen werden könnten (wie Texte, Bilder, Videos und Audio), müssen dann gekennzeichnet werden, sofern keine menschliche Bearbeitung stattgefunden hat, die das Werk maßgeblich prägt. Ausnahmen gelten für rein interne Nutzung oder bei künstlerischen Werken, bei denen die KI nur unterstützend eingesetzt wird.

Haben Sie Fragen? sprechen Sie uns an. Wir unterstützen gerne als spezialisierte Anwaltskanzlei rund um die Themen künstliche Intelligenz und KI-Recht.

 

Rechtsanwalt Tobias Spahn, BBS Rechtsanwälte Hamburg