AssCompact suche
Home
Steuern & Recht
16. April 2026
Wer haftet für falsche KI-Aussagen über andere?
Wer haftet für falsche KI-Aussagen über andere?

Wer haftet für falsche KI-Aussagen über andere?

Wenn künstliche Intelligenz (KI) falsche Aussagen über Personen oder Organisationen verbreitet, stellt sich die Frage nach der Verantwortung. Ein aktuelles Urteil aus Hamburg zeigt, wann Betreiber für KI-generierte Inhalte haften und warum Ausreden nicht greifen.

Bekannt ist, dass Antworten von künstlicher Intelligenz (KI) nicht immer vollständig korrekt sind. Doch wie ist die Rechtslage zu beurteilen, wenn eine KI in ihren Ausgaben falsche Tatsachen über Personen, Vereine oder Unternehmen verbreitet? Wer haftet in solchen Fällen und welche Ansprüche stehen Betroffenen zu?

Mit diesen Fragen hat sich das Landgericht (LG) Hamburg befasst und dabei die Verantwortlichkeit für persönlichkeitsrechtsverletzende Inhalte aus KI-Systemen konkretisiert. Maßgeblich ist demnach, wer sich die Inhalte zurechnen lassen muss: Werden Beiträge über einen offiziellen Social-Media-Account veröffentlicht, haftet grundsätzlich der Betreiber dieses Accounts – selbst dann, wenn die Inhalte von einem KI-Chatbot generiert wurden.

Haftung trotz KI: Betreiber in der Pflicht

Nach Darstellung des Rechtsportals anwaltauskunft.de kann dies insbesondere Unterlassungsansprüche begründen. Der Einwand, die KI habe lediglich „halluziniert“, entlastet den Betreiber dabei nicht. Entscheidend ist vielmehr, dass die Inhalte nach außen als eigene Kommunikation erscheinen und entsprechend auch rechtlich bewertet werden.

Der konkrete Fall laut anwaltauskunft.de

Das Portal des Deutschen Anwaltvereins schildert den zugrunde liegenden Fall so: Ein deutscher Verein fand sich auf einer öffentlich einsehbaren „schwarzen Liste“ des Chatbots „Grok“ auf der Plattform X wieder. In der betreffenden Ausgabe wurde fälschlicherweise behauptet, der Verein finanziere sich maßgeblich aus Bundesmitteln. Dies ist aber nicht zutreffend.

Da diese Aussage weltweit abrufbar war, leitete der betroffene Verein gerichtliche Schritte ein. Im Zentrum des Verfahrens stand die grundlegende Frage, ob und in welchem Umfang ein Unternehmen für Aussagen haftet, die von einer eigenständig agierenden KI generiert werden.

Das Gericht stellte laut anwaltauskunft.de klar: Eine unwahre Tatsachenbehauptung bleibt rechtlich eine unwahre Tatsachenbehauptung und das gilt unabhängig davon, ob sie von einem Menschen oder einem KI-System stammt. Den Einwand einer bloßen „technischen Unzulänglichkeit“ ließ das Gericht nicht gelten. Vielmehr sei entscheidend, dass der Betreiber selbst damit wirbt, die KI arbeite „faktenbasiert“, wodurch Nutzer den Inhalten eine erhöhte Glaubwürdigkeit beimessen.

Werden solche unzutreffenden Aussagen ungeprüft und dauerhaft über eine soziale Plattform verbreitet, muss sich der Betreiber diese Inhalte zurechnen lassen und haftet entsprechend als Verantwortlicher. (bh)

LG Hamburg, Beschluss vom 23.09.2025 – AZ: 324 O 461/25

Lesen Sie auch: Der große Irrtum über KI-Automatisierungen im Maklerbüro