Channel

AI & Robots

Gastbeitrag

Wer ist schuld, wenn AI einen Unfall verursacht, Jeannette Gorzala?

Jeannette Gorzala ist Rechtsanwältin bei Stadler Völkel Rechtsanwälte. © Stadler Völkel Rechtsanwälte GmbH
Jeannette Gorzala ist Rechtsanwältin bei Stadler Völkel Rechtsanwälte. © Stadler Völkel Rechtsanwälte GmbH

Jeannette Gorzala ist Rechtsanwältin bei Stadler Völkel Rechtsanwälte in Wien und dort unter anderem auf Gesellschafts- und Wirtschaftsrecht spezialisiert. In diesem Gastbeitrag befasst sie sich mit der Frage, wer im KI-Ökosystem für allfällige Schäden haftet und aktuelle Entwicklungen dazu auf EU-Ebene.

Ein Kernziel des am 19.10.2020 veröffentlichten Arbeitsprogramms der Europäischen Kommission für das Jahr 2021 ist es die rechtlichen Rahmenbedingungen für künstliche Intelligenz (KI) Anwendungen und das KI-Ökosystem zu entwerfen. Auch das europäische Parlament publizierte kürzlich seine Empfehlungen zu ethischen, urheberrechtlichen und vor allem haftungsrechtlichen Aspekten eines europäischen KI-Rahmenwerks.

Unklare Haftungsfragen hemmen KI-Innovationen

Allgemeiner Ausgangspunkt von Überlegungen zum KI-Einsatz ist in der Praxis regelmäßig die ethische Dimension. Die Wichtigkeit eines menschenzentrierten ethischen Leitbildes zur Gewährleistung eines sicheren, transparenten und diskriminierungsfreien KI-Einsatzes ist evident. Zentrales Hemmnis für technologische Weiterentwicklung und Innovation sind jedoch ungeklärte Haftungsfragen. Unsicherheiten bei der Verantwortlichkeit und KI-Haftung sind für das KI-Ökosystem derzeit ein weder quantifizierbares noch qualifizierbares Risiko.

KI-Unternehmen üben sich daher in Zurückhaltung bis geklärt ist, wer im KI-Ökosystem für allfällige Schäden haftet. Die Beseitigung von Rechtsunsicherheiten und die Einführung eines klaren KI-Haftungskonzepts ist damit ein wesentlicher Baustein eines zukunftsorientierten KI-Rahmenwerks. Der aktuelle Vorstoß auf europäischer Ebene ist richtungsweisend zur Förderung von Innovationsführerschaft im KI-Bereich.

Parameter für Haftungszurechnung müssen in KI-Systemen neu evaluiert werden

Im Sinne der Rechtseinheit und Vermeidung von Insellösungen ist eine mit den bestehenden Rechtskonzepten kompatible, europäisch einheitliche Lösung jedenfalls wünschenswert. Die Herausforderung in der adäquaten Abbildung von KI-Systemen im klassischen Haftungsrahmen liegt vor allem in der Komplexität von relativ eigenständigen oder sich selbst weiterentwickelnden Systemen.

Fragen der Sorgfältigkeit, Vorherseihbarkeit, Fahrlässigkeit und Kausalität müssen neu evaluiert werden, um zu beantworten, wer dafür haftet, wenn autonome Fahrzeuge Menschen nicht von Bäumen unterscheiden können oder Pflegeroboter im Umgang mit Patienten versagen. Zu klären ist, wem das Fehlverhalten von KI-Systemen zurechenbar sein soll. Dem Hersteller? Dem Programmierer? Dem Betreiber? Dem Nutzer? Dem Eigentümer?

KI-Gefährdungshaftung analog wie derzeit für Kraftfahrzeuge als Betreiberhaftung möglich

Eine Option ist die Einführung einer verschuldensunabhängigen KI-Gefährdungshaftung für Betreiber von KI-Systemen, analog dem EKHG (Eisenbahn- und Kraftfahrzeughaftpflichtgesetz), welches auf Eisenbahnen und Kraftfahrzeuge anwendbar ist. Allgemein ist die Gefährdungshaftung ein rechtliches Instrument, welches die Risiken des Einsatzes einer grundsätzlich gewünschten aber gefährlichen Technologie demjenigen zuordnet, der diese Technologie einsetzt und gleichzeitig Vorteile daraus zieht.

Für Geschädigte wäre eine KI-Gefährdungshaftung im Besonderen deshalb vorteilhaft, da sie sich bei einer allfälligen Schadenszufügung direkt beispielsweise an den Betriebsunternehmer des autonomen Beförderungssystems oder den Halter des autonomen Fahrzeugs wenden könnten. Diese müssten zunächst für Schäden einstehen, unabhängig davon ob der Schaden durch einen Herstellungsfehler, fehlerhafte Programmierung oder menschliches Versagen verursacht wurde. Der Betreiber oder Halter könnte sich erst in einem zweiten Schritt beim Hersteller des KI-Systems regressieren, weshalb die Einführung einer KI-Gefährdungshaftung stand alone ohne ein für KI angepasstes Regresskonzept vor allem für Betreiber oder Halter von KI-Systemen zu unbefriedigenden Ergebnissen führen kann.

Adaptierung der Produkthaftung bei selbstentwickelnden Systemen nicht zielführend

Denkbar ist auch die Einführung einer strengeren Haftung für Hersteller von KI-Systemen, was innerhalb des Produkthaftungsrechts, in Österreich umgesetzt durch das PHG (Produkthaftungsgesetz), möglich ist. Die Herstellerhaftung würde beim Inverkehrbringen von KI-Systemen als Gefahrenquelle ansetzen. Da KI-Systeme regelmäßig auf eine selbständige Weiterentwicklung ausgerichtet sind oder selbst-lernend designt sind, würde eine derartige Herstellerhaftung in diesem Punkt zu kurz greifen, da der Produktfehler nicht immer im Zeitpunkt des Inverkehrbringens bereits gegeben ist. Zudem wäre eine überschießende Herstellerhaftung ebenso ein Innovationshemmnis.

Einführung eines KI-Versicherungssystems mit Zertifizierung für vertrauenswürdige KI aussichtsreich

In den Publikationen der Europäischen Kommission bereits teilweise angelegt ist die Alternative eines obligatorischen Versicherungssystems für Hersteller von KI-Systemen in Verbindung mit einem parallel zu dotierenden KI-Entschädigungsfonds. KI-Schäden, die nicht im Rahmen des Versicherungsschutzes abgedeckt sind, würden in dieser Variante durch den KI-Entschädigungsfonds ausgeglichen werden. Marktteilnehmer (zB Hersteller, Programmierer, Eigentümer, Nutzer von KI-Systemen), die in den KI-Entschädigungsfonds einzahlen, könnten im Gegenzug von einer beschränkten Haftung profitieren.

Für die weiterführende Konkretisierung in diesem System bietet sich eine Unterscheidung in Systeme mit niedrigem, mittlerem und hohem Risiko an. Die Risikoklasse des Systems könnte unter anderem als Anknüpfungspunkt für Beitragshöhe und Haftungsumfang bzw. Ausmaß einer möglichen Haftungsbeschränkung dienen. Weiter bietet sich hier die Einführung eines KI-Registers bzw. KI-Zertifizierungssystems an, um vertrauenswürdige Systeme entsprechend bestimmter Mindeststandards von anderen Systemen zu unterscheiden.

EU könnte mit dem Legislativvorschlag in 2021 im KI-Bereich in Führung gehen

Erste Ansätze zur Regulierung von KI bestehen bereits seit 2016. Seit dem hat sich KI und die möglichen Use Cases dynamisch weiterentwickelt. Viele Staaten haben bereits eine KI-Agenda oder eine KI-Strategie formuliert. Auch Österreich hat mit der Artificial Intelligence Mission Austria 2030 (AIM AT 2030) ein Positionspapier zu Einsatzfeldern für KI publiziert. Die Europäische Union könnte mit einem Legislativvorschlag bereits in 2021 im KI-Feld eine federführende Position in der Definition und Ausgestaltung des globalen KI-Ökosystems einnehmen.

Springe zu:

Ganzen Artikel lesen
Corona-Krise