In Zukunft werden autonome Waffen selbstständig entscheiden, wen sie töten. Unternehmer und Wissenschaftler warnen vor ihrer Entwicklung: Im schlimmsten Fall werden wir sie nicht kontrollieren können.

Teilautonome Waffen sind heute schon im Einsatz, zum Beispiel Roboter, die in Straßenkämpfen vorausgeschickt werden. Oder Drohnen, die teilautonom herumfliegen und auf Anweisung Ziele ausschalten - also in der Regel Menschen töten.

Kürzlich hat ein System für Aufsehen gesorgt, das gegen einen Top-Piloten im Luftkampf gewonnen hat. Der Computer hat in einer Simulation komplett autonom einen Flieger gesteuert - und war dem menschlichen Wesen überlegen.

"Schon jetzt gibt es Algorithmen, wo wir eigentlich nicht mehr transparent nachvollziehen können, wie die arbeiten und auf welcher Basis die entscheiden."
Michael Gessat, Deutschlandfunk Nova

Immer wieder warnen Experten vor solchen autonomen Waffensystemen. So wie jetzt wieder.

Über 100 namhafte IT-Unternehmer und Künstliche-Intelligenz-Forscher haben einen warnenden Brief an die UN verfasst, darunter etwa der Tesla-Chef Elon Musk. Sie fordern, dass die UN die Entwicklung und den Einsatz von autonom arbeitenden, mit Künstlicher Intelligenz ausgestatteten Waffensystemen ächten und verbieten soll.

Gefahr: Autonome Waffen verselbstständigen sich

Die Vereinten Nationen machen so etwas schon, zum Beispiel bei Chemiewaffen. Diese wiederum zeigen: Eine Ächtung bedeutet nicht automatischen, dass sie nicht mehr hergestellt und eingesetzt werden.

Einen Unterschied zu den autonomen Waffensystemen gibt es aber. Diese sind noch in der Entwicklung. Es geht also um eine Ächtung der Entwicklung solcher Systeme, um von vornherein ein Dilemma zu verhindern - zum Beispiel, dass sich solche Systeme irgendwann einmal verselbstständigen oder zumindest ohne ausreichende Kontrolle im programmierten Rahmen agieren und Menschen schaden.