KI und die Frage der Haftung

Eine neue Frage geht um: Wer oder was haftet, wenn eine Künstliche Intelligenz einen Fehler macht?
Schon beim Autonomen Fahren ist die Frage der Haftung gestellt worden. Was wenn das Autonome Fahrzeug einen Unfall verursacht – wer haftet dann? Die Ethik-Kommission sagte, die Haftung gehe von den Fahrenden auf die Hersteller über. Zwar versprach der damalige Verkehrsminister von der CSU, Alexander Dobrindt, die Umsetzung der Empfehlungen der Kommission in ein Gesetz, doch dazu kam es auch unter seinem, ebenfalls von der CSU stammenden, Nachfolger Scheuer nicht.
Dabei gibt es denn auch noch mehr Fragen zu beantworten, denn auch im Auto der Zukunft wird eine Künstliche Intelligenz integriert werden. Und wie steht es dann um die Haftung? Eines der Hauptprobleme ist, dass eine Künstliche Intelligenz, während des Einsatzes, dazu lernen kann und sich damit verändert. Greift dann noch die Produkthaftung?
Sollen Maschinen denn für ihr Handeln haftbar gemacht werden können? Oder sollen die Hersteller oder die Programmierende dafür den Kopf hinhalten. Bleibt die Haftung gar bei den Fahrenden hängen? Die Fragen sind mannigfaltig und von der Bundesregierung gibt es derzeit keinen Plan. Im Gegenteil man sieht nicht mal einen Handlungsbedarf.
Wer also haftet, wenn sich die Künstliche Intelligenz falsch entscheidet? Und diese Entwicklung ist keine Science Fiction, denn solche Systeme existieren bereits, auch wenn sie noch nicht kommerzialisiert sind. Lernt die Maschine etwas falsches und übt es dann aus, ist die Person, von der sie es gelernt hat, schuld?
Von Seiten des Versicherers Allianz heißt es dazu, dass es nur schwer vorstellbar ist, dass ein Algorithmus haftbar gemacht werden kann. Egal ob so programmiert oder selbstlernend. Schließlich geht es dem Unternehmen um Geld und eine Künstliche Intelligenz verfügt weder über ein Einkommen, noch über ein Konto.
Derart überlegt man tatsächlich, so eine Empfehlung der EU Kommission im vergangenen Jahr, darüber nachzudenken, ob eine Künstliche Intelligenz einen Persönlichkeitsstatus bekommt. Das wäre aber mit einer Reihe von Unwägbarkeiten verbunden.
Die Künstliche Intelligenz als Rechtsperson im juristischen Sinne würde eine Haftung ermöglichen. Aber was wäre die Konsequenz? Von einem Gefängnisurteil könnte man m.E. nichts erwarten, außer dass die KI mehr Fehler lernt. Außerdem stellt sich die Frage, ob man das Strafrecht so beibehalten könnte.
Oder bleibt es bei der Produkthaftung, wie man es auch bei den Autonomen Autos angedacht hat. Wahrscheinlich läuft es darauf hinaus, dass die Fahrenden haften, auch wenn sie darauf gar keinen Einfluss nehmen können. Das nennt sich dann Gefährdungshaftung. So verhält es sich auch, wenn der eigene Hund jemanden beißt oder wenn man ein gefährliches Gerät betreibt. Aber wer würde dann ein solches Auto kaufen? Die Allianz Versicherung plädiert jedoch für diesen Ansatz.