mobile Navigation

Interview

Experten der Uni Zürich: Markus Christen und Abraham Bernstein. Bild: SB

«Kampfroboter begehen keine Kriegsverbrechen»

Von: Sacha Beuth

17. Januar 2017

«How to NOT build a Terminator» ist der Titel einer Veranstaltung der Uni Zürich, an der heute Abend Experten und Publikum über den Sinn von Kampfrobotern und Automatisierung diskutieren. Mit dabei sind auch Abraham Bernstein und Markus Christen, Forscher des Programms Digital Society Initiative an der Uni Zürich.

Beim Wort «Terminator» kommt einem unweigerlich der Science-Fiction-Film von James Cameron in den Sinn. Sind solche Kampfroboter in naher Zukunft tatsächlich denkbar?

Abraham Bernstein: So wie im Film nicht, unter anderem weil es noch viele technische Aspekte gibt, die sich noch nicht umsetzen lassen.

Markus Christen: Automatisierung ist aber seit längerem auch im Militär ein Thema. So gibt es schon lange Selbstschussanlagen zur Bewachung oder zur Abwehr von Raketen. Entwickelt werden auch autonome, also sich selbst steuernde Torpedos gegen U-Boote. Diese operieren jedoch in der Tiefsee, damit keine Kollateralschäden entstehen.

Bernstein: Die Entwicklung und der Einsatz von Kampfautomaten gehen mindestens bis in den 1. Weltkrieg zurück. Zurzeit stehen eher unterstützende Roboter im Fokus, zum Beispiel Minenräumroboter.

Christen: Bewaffnen könnte man Roboter schon lange, aber man will es nicht.

Warum nicht?

Christen: Einerseits wegen taktischer Überlegungen der Militärs. Autonome Systeme lassen sich nicht genügend kontrollieren. Anderseits wegen völkerrechtlicher und kultureller Gründe. Um dem Völkerrecht zu genügen, müssten die Systeme bei Kampfhandlungen verstehen, was um sie herum passiert. Der Kampfroboter müsste beispielsweise erkennen können, ob sich jemand ergibt. Und dann ist da noch die Frage, wer die Schuld trägt, wenn ein autonomer Roboter ein Kriegsverbrechen begeht, also zum Beispiel ein Krankenhaus angreift.

Bernstein: Hierfür muss man wissen, wie derartige Maschinen generell funktionieren. Viele moderne Roboter lernen und entscheiden anhand von Wahrscheinlichkeiten. Nehmen wir als Beispiel den Airbag: Er ist so programmiert, dass er sich unter bestimmten Umständen aufbläst. In der überwiegenden Zahl der Fälle rettet er das Leben der Autoinsassen. Es gibt aber auch einige wenige Fälle, in denen er mehr geschadet als genützt hat – eben weil er nicht situativ entscheiden konnte.

Gibt es aus ethischer Sicht auch Vorteile, wenn Kampfroboter eingesetzt werden?

Christen: Für einige Anwendungen ist das vorstellbar. Da ihnen die Emotionen fehlen, begehen sie nicht wie Menschen aus Frust oder Rache Kriegsverbrechen. Besitzen beide Parteien Kampfroboter, ist es denkbar, dass nur diese statt der Menschen einen bewaffneten Konflikt austragen. Aber das ist zumindest heute noch Science-Fiction.

Bernstein: Es ist wichtig, dass die Menschen erkennen, dass die Automatisierung generell nicht nur Nachteile, sondern auch viele Chancen bietet – insbesondere im zivilen Bereich. Sie kann zum Beispiel in der Rettung Menschenleben bewahren, uns beratend zur Seite stehen und neue Tätigkeitsfelder eröffnen. In der Digital Society Initiative der Universität Zürich möchten wir gerne sowohl die Chancen als auch die Risiken untersuchen.

Kürzlich hat die UNO beschlossen, dass Experten an einer Regulierung von künstlich intelligenten Waffensystemen arbeiten sollen. Macht eine solche Regulierung überhaupt Sinn, wenn sich einige Nationen – wie Syrien mit Chemiewaffen – nicht daran halten?

Christen: Die Regulierung über die Kontrolle von Chemiewaffen hat in der Vergangenheit mehrheitlich funktioniert. Die Möglichkeit, eine Regulierung zu unterlaufen, ist kein Argument, nicht auch bei künstlich intelligenten Waffensystemen Regeln zu schaffen. Schwierigkeiten dürften sich eher in den Kontrollen der Regeln ergeben. Ob jemand an Chemiewaffen arbeitet, lässt sich relativ leicht anhand der Chemikalien, die er kauft, feststellen. Baut jemand heimlich Kampfroboter, ist das schwieriger.

Aber wie will man Regeln für etwas festlegen, wenn man noch gar nicht weiss, wie sich Kampfroboter künftig entwickeln?

Bernstein: Die technische Entwicklung geht auch in den zivilen Bereichen stetig voran, und trotzdem wurden diese teilweise schon früh reguliert. Etwa die Höchstgeschwindigkeit auf Strassen, die Handystrahlung, der Gebrauch von Kortison. Entscheidend ist, dass die Regelungen laufend angepasst werden.

Wie werden Kampfroboter, aber auch zivile autonom handelnde Technologien beschaffen sein?

Christen: Sie werden generell in erster Linie als Unterstützungselemente dienen. Bei gewissen Handlungen, etwa wenn man bei einem Patienten über die Weiterführung einer lebenserhaltenden Therapie entscheiden muss, wird dies weiterhin dem Menschen, also dem Arzt und den Angehörigen überlassen bleiben. Bereits heute können Flugzeuge weitgehend ohne Pilot fliegen – dennoch will man einen Piloten im Cockpit, der als Entscheider von allfälligen Fehlern auch selbst betroffen wäre. Analog würden im Krieg menschliche Soldaten wohl nicht gerne von einem Kampfroboter angeführt werden wollen.

Bernstein: Wenn wir uns mit dem Äusseren von Robotern beschäftigen, dann müssen wir vom Bild des androiden Film-Terminator wegkommen. Abgesehen von der Infiltration gibt es aus meiner Sicht wenige Gründe, warum ein Kampfroboter wie ein Mensch aussehen soll. Aber er muss die Umwelt mit seiner Sensorik erfassen, darauf basierend Entscheidungen fällen sowie Anweisungen entgegennehmen können. Vielleicht gibt es noch weitere Voraussetzungen. Darum bin ich sehr gespannt, was der amerikanische Experte Ronald Arkin an unserem heutigen Event zum Thema zu sagen hat, zumal er für ethische Schranken beim Bau von Kampf­robotern eintritt. Ich würde mich freuen, wenn möglichst viele Interessierte an der öffentlichen Veranstaltung teilnehmen.

«How to NOT build a Terminator», 18. Januar 2017, 18 bis 20 Uhr, Universität Zürich, Rämistrasse 71 (Aula, KOL-G-201). Vortrag von Ronald Arkin, Direktor des Mobile Robot Laboratory am Georgia Institute of Technology, mit anschliessender Diskussion. Die Veranstaltung ist öffentlich und findet auf Englisch statt. Weitere Infos auf: dsi.uzh.ch

Sind Sie bei Facebook? Werden Sie Fan von tagblattzuerich.ch

 

 

zurück zu Interview

Artikel bewerten

Gefällt mir ·  
Noch nicht bewertet.

Leserkommentare

Keine Kommentare