KI und die Autonomen Waffen
Forschende der spanischen Luftwaffe haben sich der Ethik der KI und der Autonomen Waffensysteme angenommen.
Weltweit forschen viele Staaten an der Entwicklung von Waffensystemen, die von einer KI gesteuert werden und somit auch eine gewisse Autonomie erreichen. Bei Google hatte man sich Richtlinien für den Einsatz der Künstlichen Intelligenz im militärischen Bereich gegeben, aber die Forschenden der spanischen Luftwaffe geben zu bedenken, dass eine KI mehrfach verwendet werden kann.
Viele KIs können für friedliche und für militärische Zwecke gebraucht werden. Das wird bei solchen Ethikregeln gerne vergessen. Wenn KI-Technologien entwickelt werden, sollte man auch die militärischen Zwecke bedenken. Ein Vergleich zwischen allgemeinen und militärischen Ethikkodizes ergibt, dass die meisten ethischen Grundsätze für den Einsatz künstlicher Intelligenz zwei Merkmale erfüllen müssen: Verständnis für die Funktionsweise von Algorithmen und die Frage der Kontrolle durch den Menschen.
Derart bleibt die Kontrolle beim Menschen und die moralische Verantwortung bleibt unabhängig von der möglichen doppelten Nutzung der Technologie. KI-Systeme, die die Freiheit des Menschen jedoch beeinträchtigen, sollten als Waffe betrachtet und dem Völkerrecht unterworfen werden.