Sie sind die dunkle Seite der künstlichen Intelligenz: Waffensysteme, die eigenständig entscheiden, wen sie angreifen und töten. Wissenschaftler wie Stephen Hawking, Elon Musk und Steve Wozniak warnen vor diesen Killer-Robotern.

Man kann die Zukunft positiv sehen. Dann übernehmen sie Arbeiten, die für Menschen zu gefährlich sind. Dann machen Maschinen besonders langweilige Fabrikarbeit. Dann verlieben wir uns in Roboter, wenn wir mit Menschen aus Fleisch und Blut nicht klar kommen. Man kann die Zukunft aber auch negativ sehen, dann sind Roboter programmierte Tötungsmaschinen, die mitleidlos jeden Befehl ausführen. Renommierte Wissenschaftler haben vor Kurzem genau vor dieser Vision gewarnt. Vor allem militärische künstliche Intelligenz macht ihnen Angst.

Starting a military AI arms race is a bad idea, and should be prevented by a ban on offensive autonomous weapons beyond meaningful human control.

Roboter als Produkt der Rüstungsindustrie

US-Korrespondentin Sabrina Fritz schließt sich diesen Warnungen an. Denn wenn die Kampf-Roboter einmal losgelassen werden, dann sind sie nur schwer zu stoppen. Und: Sie können nicht unterscheiden, "ob das Freund oder Feind ist, oder ein Kind. Ist das jemand, der sagt: Ich gebe auf." Außerdem geht es nicht nur um Roboter, die Krieg führen, sondern um auch um Roboter, die an der Börse spekulieren und ganze Finanzsysteme ins Wanken bringen können, erklärt Sabrina Fritz.

"Die Angst ist, dass diese Roboter nicht mehr vom Menschen gesteuert werden. Sondern dass sie machen, was sie wollen."
Sabrina Fritz, Korrespondentin

Immerhin: Es gibt auch Vorteile. Zum Beispiel werden heute schon Roboter losgeschickt, die als Sanitäter arbeiten oder die Verletzte bergen. Befürworter dieser Technologie argumentieren, dass es eine Frage der Programmierung ist, was ein ein Roboter tut. Die Wissenschaftler sehen das kritisch: Sie sind gegen die militärische Nutzung von Künstlicher Intelligenz. Beziehungsweise, dass offensive autonome Waffensysteme ähnliche wie chemische Waffen durch die UN verboten werden.