Produkthaftung für KI-Systeme – Risiko Maschine?
Künstliche Intelligenz (KI) prägt zunehmend unseren Alltag – und wirft zugleich komplexe Haftungsfragen auf. Gerade im Bereich der Produkthaftung entsteht ein neues Spannungsfeld, das Unternehmen und Versicherer vor Herausforderungen stellt. Mit der KI-Verordnung und der Produkthaftungsrichtlinie wagt der europäische Gesetzgeber den Versuch, klare Regeln für den Umgang mit intelligenten Systemen zu schaffen. Klar ist, dass es Geschädigten künftig erleichtert werden soll, Schadenersatz für fehlerhafte KI-Systeme und von ihnen verursachte Schäden durchzusetzen.
Künstliche Intelligenz ist längst kein Zukunftsthema mehr – sie steuert Maschinen, überwacht Prozesse und trifft Entscheidungen, die unmittelbar Auswirkungen auf Leib, Leben und Sicherheit haben. Unternehmen setzen KI heute in fast allen Produktions- und Dienstleistungsbereichen ein.
Ein Beispiel zeigt, wie schnell Haftungsfragen beantwortet werden müssen: Ein Hersteller vertreibt ein KI-gestütztes Assistenzsystem für eine intelligente Küchenmaschine, die Temperaturen erkennen und steuern soll. Versagt der Algorithmus, kann es zum Brand am heimischen Herd kommen. Das macht deutlich: Fehlerhafte KI birgt erhebliche Risiken für Leib, Leben und Sachgüter. Wer haftet hier? Der Hersteller des KI-Systems oder der Hersteller der Küchenmaschine oder sogar beide? Und für welche Fehler überhaupt?
Der europäische Gesetzgeber will das Thema KI regulieren. Mit der im Juni 2024 verabschiedeten Verordnung (EU) 2024/1689 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (KI-Verordnung) und der im Oktober 2024 verabschiedeten Richtlinie (EU) 2024/2853 über die Haftung für fehlerhafte Produkte (Produkthaftungsrichtlinie) hat er diesbezüglich neue Regelungen geschaffen.
Doch welche haftungsrechtlich maßgeblichen Neuerungen enthalten die neuen Vorschriften? Ihren Vorschlag, eine KI-Haftungsrichtline zu verabschieden, hat die EU-Kommission zwischenzeitlich zurückgezogen. Naheliegend wäre es dann, für haftungsrechtliche Fragen im Zusammenhang mit KI zunächst die neue KI-Verordnung heranzuziehen. Diese lässt jedoch haftungsrechtliche Fragen für durch KI-Systeme verursachte Schäden außer Betracht.
Software und KI-Systeme als Produkt
Die neue Produkthaftungsrichtlinie hingegen sowie – sofern deutsches Recht anwendbar ist – das Produkthaftungsgesetz enthalten für die auf KI-Systemen basierende Haftung relevante Regelungen.
Der europäische Gesetzgeber spricht sich nun für Software als „Produkt“ im Sinne der Produkthaftungsrichtlinie aus. Im Kontext mit Erwägungsgrund 13 der Richtlinie wird deutlich, dass auch KI-Systeme als Software und somit als Produkt im Sinne der Richtlinie gelten. Anders ist das für freie und quelloffene Software (sogenannte Open-Source-Software), die nicht vom Anwendungsbereich umfasst ist.
Unklarheiten und Lücken im Anwendungsbereich der Richtlinie
Es wird schnell deutlich, dass im Kontext von KI-Systemen noch vieles klärungsbedürftig ist. Daher ist abzusehen, dass die Gerichte sich künftig – nach Umsetzung ins deutsche Recht – vermutlich mit allerlei Fragen beschäftigen werden. Das gilt insbesondere mit Blick auf die Frage, ob und wann ein KI-System fehlerhaft ist und ob das zum Beispiel auch dann der Fall ist, wenn ein KI-System auf Grundlage von Eingabedaten unzutreffende Informationen, und damit einen Schaden erzeugt.
Auch die Abgrenzung zwischen bloßen Informationen, für die nicht gehaftet werden soll (zum Beispiel Quellcode), einerseits und Software andererseits dürfte im Einzelfall zu Schwierigkeiten führen. Auch im Rahmen der Erweiterung der Haftung für verbundene digitale Dienste werden sich Abgrenzungsfragen zu reinen Dienstleistungen stellen, die nicht mit einem Produkt verbunden sind und nicht von der Richtline erfasst werden sollen.
Vor dem Hintergrund, dass der Schutzbereich der Richtline beschränkt ist auf Tod, Körperverletzung und Schäden an privat genutzten Sachen, wird es allerdings weiterhin Schäden geben, die typischerweise von KI-Systemen verursacht, aber nach der neuen Richtlinie nicht kompensiert werden.
Lernfähigkeit von KI-Systemen
Nach der neuen Produkthaftungsrichtlinie ist es Pflicht der Hersteller, Vorkehrungen zu treffen, um potenzielle Risiken durch nachträgliches Lernen des Systems zu minimieren. Nach Artikel 7 Absatz 2 c) der Richtlinie ist bei der Beurteilung der Fehlerhaftigkeit des Produkts auch die Fähigkeit des Produkts zu berücksichtigen, „nach seinem Inverkehrbringen oder seiner Inbetriebnahme weiter zu lernen oder neue Fähigkeiten zu erwerben“. Wie diese Vorkehrungen konkret ausgestaltet werden müssten, dürfte aber im Einzelfall unter Berücksichtigung der Eigenarten des jeweiligen Produkts zu bestimmen sein.
Eine weitere wesentliche Neuerung der Produkthaftungsrichtlinie ist die Erweiterung des haftenden Adressatenkreises. Hinsichtlich der betroffenen und von der Richtlinie umfassten Wirtschaftsakteure ist auf den Beitrag in dieser Kolumne vom Dezember des vergangenen Jahres zu verweisen. Darüber hinaus folgt aus der Einbeziehung von Software in den Produktbegriff, dass auch der Hersteller dieser Software als Schädiger in Betracht kommt. Dasselbe gilt für den Hersteller von KI-Systemen. Aber auch der Komponentenhersteller muss sich verantworten. Neu geregelt ist die Haftung des sogenannten professionellen Nutzers eines KI-Systems.
KI stellt für viele Nutzer eine Black Box dar. Es können zwar Ein- und Ausgabe betrachtet werden, aber oft ist unklar wie das Ergebnis entsteht. Daher besteht die Sorge, dass der Geschädigte nicht in der Lage sein könnte, den Produktfehler darzulegen sowie dessen Kausalität für den Schaden. Auch hierfür enthält die Produkthaftungsrichtlinie Regelungen zu Beweiserleichterungen und Vermutungsregelungen, die Gegenstand des Beitrags aus Dezember 2024 gewesen sind.
Fazit und Ausblick
Es ist erkennbar, dass es dem Geschädigten erleichtert werden soll, Schadenersatz für von KI-gesteuerten Produkten und von ihnen verursachte Schäden durchzusetzen. Es stellen sich aber viele offene Auslegungs- und Abgrenzungsfragen, die im Zweifel in den kommenden Jahren die Gerichte beschäftigen werden.