Gefahren von autonomen Waffensystemen
Berlin: (hib/ROL) Zu dem Thema „Autonome Waffensysteme“ hat am 4. November ein Öffentliches Fachgespräch im Deutschen Bundestag stattgefunden. Im Auftrag des Ausschusses für Bildung, Forschung und Technikfolgenabschätzung hat das Büro für Technikfolgenabschätzung (TAB) einen Bericht fertiggestellt, der technische Aspekte, ethische Gesichtspunkte und internationale Politikfragen im Kontext von autonomen Waffensystemen umfassend behandelt. Die Erweiterung autonomer Funktionen von Waffensystemen wird immer wahrscheinlicher. Bislang sei die Zielauswahl, die Angriffsentscheidung und schließlich die Freigabe des Waffeneinsatzes durch einen menschlichen Kommandeur oder Operator erfolgt.
Nach der Begrüßung von Ernst Dieter Rossmann (SPD), Vorsitzender des Ausschusses für Bildung, Forschung, führte Reinhard Grünwald, Projektleiter des TAB in das Thema ein. Grünwald machte deutlich, dass autonome Waffensysteme, die ohne menschliches Zutun Ziele auswählen und bekämpfen können, sich aufgrund der enormen technologischen Fortschritte in den Bereichen Robotik und künstlicher Intelligenz (KI) an der Schwelle zur konkreten Umsetzung befänden. Technologische Trends gingen einerseits zu extrem leistungsfähigen Großgeräten, wie etwa autonomen Kampfdrohnen mit Strahlantrieb und Tarnkappenfähigkeiten, die im Luftkampf über umkämpftem Gebiet eingesetzt werden können und andererseits zu immer kleineren Systemen, die in großer Zahl kostengünstig hergestellt und im Schwarm eingesetzt werden können. Befürworter dieser Entwicklung würden sich laut Grünwald von solchen autonomen Waffensystemen (AWS) entscheidende militärische sowie unter Umständen auch humanitäre Vorteile versprechen. Kritiker äußern Bedenken, ob es ethisch vertretbar, politisch verantwortbar und völkerrechtlich erlaubt sein kann, die Entscheidung über Leben und Tod von Menschen an Maschinen zu delegieren.
Frank Flemisch vom Fraunhofer-Institut für Kommunikation, Informationsverarbeitung und Ergonomie (FKIE) warnte vor AWS, da sie nicht beherrschbar seien. Gleichwohl machte er deutlich, dass es bislang keine vollständigen AWS gebe, aber bereits teilautonome Technik. Ziel sei es, kooperative Systeme zu bauen, was bedeute, dass die Maschine im Gefecht ihrem Bediener Informationen liefert.
Jürgen Altmann, TU Dortmund, machte klar, dass aus Sicht der Militärstreitkräfte AWS vor allem für den Kampf gegen annähernd ebenbürtige Gegner interessant seien. Altmann sah es als wahrscheinlich an, dass es leichter zu einer Eskalation kommen würde, wenn wichtige Staaten wie die USA, China und Russland beginnen würden, AWS zu stationieren. Autonome Waffensysteme würden der jeweiligen Streitkraft wegen kürzerer Entscheidungszeiten große Vorteile bringen. Mit autonomen, unbemannten Waffensysteme könnten Überraschungsangriffe und sogar Entwaffnungsschläge möglich sein, da die Systeme unerkannt beim Feind eindringen und als Schwärme wichtige Ziele von allen Seiten angreifen könnten. Altmann führte aus, dass ein Wettrüsten mit AWS durch ein internationales, rechtlich verbindliches Verbot verhindert werden könnte. Deutschland sollte dieses Umdenken fördern und für ein AWS-Verbot eintreten, insbesondere im VN-Waffenübereinkommen.
Johanna Polle und Christian Alwardt vom Institut für Friedensforschung und Sicherheitspolitik (IFSH) sprachen von der „Gefahr eines menschlichen Kontrollverlustes über Entscheidungen von Leben oder Tod“. Die sicherheitspolitischen Konsequenzen von AWS seien ein gefährlicher Höhepunkt von Entwicklungen, die man bereits heute beobachte: Militärische Aufgaben würden vom Menschen an den Computer outgesourct. Beide Experten benannten die Gefahr eines internationalen Wettrüstens, getrieben von einer Automatisierungsspirale sowie eine zunehmenden Beschleunigung der Kriegsführung.
Bernhard Koch, Institut für Theologie und Frieden (ITHF), plädierte aus ethischer Sicht dafür, allein wegen der Risiken, die solche Systeme aufwerfen, sich für ein durchsetzungsfähiges Verbot autonomer Waffensysteme und für eine effektive Rüstungskontrolle in diesem Bereich einzusetzen.
Anja Dahlmann, Stiftung Wissenschaft und Politik (SWP) betonte, dass der Fokus der internationalen Gespräche zu Lethal Autonomous Weapon Systems (LAWS) auf dem Schutz des humanitären Völkerrechtes liege. Dies gebe die VN-Waffenkonvention vor, die ein multilaterales Verbot von LAWS ermögliche. Die Diskussion bewege sich bei der VN weg von technischen Definitionen von LAWS hin zur Beibehaltung der menschlichen Kontrolle bei der Zielauswahl und -bekämpfung. Allerdings machte sie auch deutlich, dass die Gespräche nur mit einer politischen Erklärung oder sogar ohne Ergebnis enden könnten. Aber selbst ohne Verbotsvertrag entfalte der Gesprächsprozess eine normative Wirkung, da sich Staaten über die menschliche Rolle beim Waffeneinsatz austauschen und dies - zumindest teilweise -bei ihren eigenen Rüstungsprojekten berücksichtigen.
Auch Frank Sauer, Universität der Bundeswehr Münchenž betonte, dass Rüstungskontrolle in diesem Feld angesichts der strategischen Risiken Interessenpolitik und der nationalen Sicherheit dienlich sei. Das habe nichts damit zu tun, sich militärisch „die Hand auf den Rücken binden“. Zudem unterstrich er, dass es bei Waffensystemautonomie nicht um die Kategorisierung oder die Zählung, oder Ächtung eines bestimmten Typus von Waffensystem gehen kann, sondern ganz explizit um die Regulierung des Mensch-Maschine-Verhältnisses. Es gehe also, wie auch schon andere Experten betont hatten, um das Beibehalten der menschlichen Kontrolle, der „retain human control“. Zudem machte er deutlich, dass die Regulierung in Form relativ abstrakter Prinzipien vereinbart, und dann abhängig vom Operationskontext präzisiert werden müsse.