Das LG Kiel hat am 29.02.2024 (Az. 6 O 151/23) eines der ersten Urteile in Deutschland im Zusammenhang mit der Haftung für Output von Künstlicher Intelligenz verkündet.
1. Der Sachverhalt
Geklagt hatte ein mittelständisches Unternehmen (Klägerin) wegen einer Persönlichkeitsrechtsverletzung gegen eine Plattform, die Wirtschaftsinformationen veröfflicht (Beklagte). Die Veröffentlichungen wurden u.a. automatisiert mittels KI verarbeitet. Dabei griff die KI auf Handelsregisterbekanntmachungen und andere Pflichtveröffentlichungen zu und analysierte diese. Im Rahmen der Nutzungsbedingungen hatte die Beklagte auf mögliche Fehler wegen der automatisierten Analyse hingewiesen. Die Klägerin stellte schließlich fest, dass über die Plattform fälschlicherweise behauptet wurde, es sei beabsichtigt, die Gesellschaft der Klägerin wegen Vermögenslosigkeit zu löschen. Sie nahm daraufhin die Beklagte auf Unterlassung und Erstattung der Rechtsanwaltskosten in Anspruch. Die Fehlersuche der Beklagten ergab, dass ein Zuordnungsfehler zur Klägerin in der Verarbeitungskette zwischen Insolvenzgericht- Amtsgericht und Unternehmensregister vorlag. Sie löschte die Veröffentlichung daher unverzüglich. Die Abgabe einer strafbewehrten Unterlassungserklärung lehnte sie jedoch ab. Im Rahmen der Klage verfolgte die Klägerin ihre Ansprüche weiter.
2. Die Entscheidung
Das LG Kiel bejahte den Anspruch der Klägerin auf Unterlassung und Erstattung der Rechtsanwaltsvergütung gemäß § 1004 BGB analog i .V. m. Art. 19 Abs. 3 GG wegen einer Persönlichkeitsrechtsverletzung (Ehrenschutz einer juristischen Person) der Klägerin.
Es vertrat die Auffassung, dass die fehlerhafte Äußerung die Klägerin in ihrem sozialen Geltungsbereich berühre, da sich die Meldung abträglich auf das Ansehen und die Kreditwürdigkeit auswirke. Das Verhalten sei auch rechtswidrig, das Recht auf freie Meinungsäußerung der Beklagten überwiege vorliegend nicht, weil es sich um eine unwahre Tatsachenbehauptung handle.
3. Die Haftungsfrage
Das LG Kiel bejahte schließlich auch die Haftung der Beklagten als unmittelbare Störerin, weil sie sich willentlich zur Beantwortung von Suchfragen einer eigenen Software bedient habe, die Informationen aus veröffentlichten Daten extrahiert, aufbereitet und veröffentlicht habe. Sie könne sich nicht darauf zurückziehen, dass sie an diesem automatisierten Vorgang nicht beteiligt gewesen sei, da sie sich bewusst künstlicher Intelligenz bedient habe, die derartige Fehler zuließe. Darüber hinaus habe sie sich den Output der KI auch zu eigen gemacht und nach außen erkennbar die inhaltliche Verantwortung übernommen. Da insoweit auch eine Wiederholungsgefahr bestehe, müsse die Beklagte u.a. auf Unterlassung haften.
4. Handlungsempfehlungen
- Erhöhte Sorgfaltspflichten: Unternehmen, die KI-Systeme einsetzen, müssen erhöhte Sorgfaltspflichten beachten. Dazu gehört eine sorgfältige Auswahl und Konfiguration der KI, eine regelmäßige Überprüfung der Ergebnisse und die Implementierung von Kontrollmechanismen.
- Transparenz: Unternehmen sollten transparent darüber informieren, inwieweit sie KI-Systeme einsetzen und welche Auswirkungen diese auf ihre Produkte oder Dienstleistungen haben.
- Versicherungsschutz: Unternehmen sollten prüfen, ob ihre bestehenden Versicherungen einen ausreichenden Schutz gegen Schäden bieten, die durch den Einsatz von KI entstehen können.
5. Fazit
Es handelt sich bei dem Urteil -meines Wissens nach- um eines der ersten Urteile in Deutschland, das sich mit der Haftung durch KI-generierte Inhalte befasst. Unternehmen, die KI einsetzen, sollten sich frühzeitig mit den rechtlichen Risiken auseinandersetzen und entsprechende Maßnahmen ergreifen, um das Haftungsrisiko zumindest zu minimieren.