- Politik
- Killerroboter
Autonome Waffensysteme bleiben weiter unkontrolliert
Der Versuch einer internationalen Regulierung automatisierter Waffen tritt auf der Stelle
Ist die Rede von autonomen Waffen geht es meist nicht um bestimmte Systeme, sondern vielmehr um deren Funktionen: Nach einer Aktivierung können sie ohne menschliche Eingriffe Ziele auswählen und bekämpfen. Diese Entscheidungen erfolgen auf Grundlage verschiedener Sensoren an Bord des Systems. Eine Aktion wird eingeleitet, wenn das Datenmuster eines vorher programmierten Zielprofils erkannt wird. Autonome Waffensysteme sind zudem weniger angreifbar, da sie zur Not auch ohne Kommunikation mit »bemenschten« Bodenstationen auskommen. Sie können zudem in Schwärmen eingesetzt werden, etwa um die gegnerische Flugabwehr zu überwältigen oder Soldat*innen in Panik zu versetzen.
Mit unserem wöchentlichen Newsletter nd.DieWoche schauen Sie auf die wichtigsten Themen der Woche und lesen die Highlights unserer Samstagsausgabe bereits am Freitag. Hier das kostenlose Abo holen.
Rüstungskonzerne preisen auf einschlägigen Messen vermehrt Produkte an, die solche autonomen Funktionen – Zielauswahl und -bekämpfung – integrieren. Diese Waffen profitieren von Fortschritten im Bereich des maschinellen Lernens, die zu einem »dritten Sommer« der sogenannten Künstlichen Intelligenz (KI) geführt haben. Anders als beispielsweise bei schon jetzt genutzten Raketen, die nach dem Prinzip »Feuern-und-Vergessen« funktionieren, haben neue Waffensysteme wie »herumlungernde Munition« bedeutend weniger räumliche und zeitliche Grenzen ihres Einsatzes oder auch möglicher Ziele. Die Fehleranfälligkeit dieser Technologie, die sich schon in zivilen Anwendungen gezeigt hat und etwa marginalisierte Gruppen benachteiligt, wird dabei vernachlässigt. Problematisch ist auch, wenn Menschen bei der Entscheidungsfindung einer Maschine immer mehr Vertrauen entgegenbringen.
Militärs wollen mit autonomen Waffensystemen den Zielkreislauf zwischen dem Entdecken und dem Zerstören oder Töten von Zielen schneller als ihre Gegner durchlaufen können. Mit der Geschwindigkeit für die Entscheidungsfindung erhöht sich aber auch Risiko der Gewalteskalation. Das lässt sich derzeit im Angriffskrieg Russlands auf die Ukraine beobachten, wo vermehrt Drohnen eingesetzt werden die auf KI setzen. Zwar sind die heute eingesetzten Waffen noch nicht gänzlich autonom, die Rede ist von einem »man in the loop«, es soll also ein Mensch in der Befehlskette die Entscheidung über einen möglichen Angriff treffen. Dabei kann es sich aber auch lediglich um eine letzte Bestätigung handeln, dass ein Ziel tatsächlich attackiert werden darf. Die Erledigung dieses Auftrages kann durch den Killerroboter dann selbständig erfolgen.
Die Internationale Staatengemeinschaft droht den Zeitpunkt zu verpassen, die Entwicklung und den Einsatz von autonomen Waffensystemen zu regulieren. Zwar diskutieren Regierungen seit 2013 bei den Vereinten Nationen darüber im Rahmen der »Konvention über bestimmte konventionelle Waffen« (CCW), allerdings bislang ohne konkrete Ergebnisse. Die CCW hat derzeit 126 Vertragsstaaten, darunter die geopolitischen und militärischen Schwergewichte wie China, Russland und die USA. Viele Länder des globalen Südens fehlen jedoch – auch weil ihnen die nötigen Ressourcen fehlen oder diese nicht über die in Rede stehenden Systeme verfügen.
Zunächst startete die CCW informelle Gespräche für eine mögliche Regulierung, Ende 2016 wurde eine Gruppe von Expert*innen der Regierungen(»Group of Governmental Experts«) mit einer tieferen Befassung des Themas mandatiert. Sie besteht aus Diplomat*innen aus den Hauptstädten der beteiligten Länder oder ihren Vertretungen vor Ort, oft entsenden diese außerdem militärische oder rechtliche Berater*innen in ihre Delegationen.
Allerdings verharrt die Gruppe seitdem im Gesprächsmodus, denn konkrete Verhandlungen über ein mögliches Instrument zur Regulierung haben Staaten wie Indien, Israel, Russland und die USA bislang erfolgreich verhindert. Sie gehen davon aus, dass es kein neues Instrument für Autonomie in Waffensystemen bedarf. Oder sie streben – wie die USA – eher niederschwellige Maßnahmen an, die jedoch nicht-bindend wären. Doch der Druck aus der Wissenschaft, Zivilgesellschaft, der Vereinten Nationen und auch vieler Staaten wächst: Die Zahl der Regierungen, die ein völkerrechtlich verbindliches Instrument zur Regulierung autonomer Waffensysteme unterstützen liegt derzeit bei 91, darunter sechs Nato-Mitglieder.
Gänzlich fruchtlos waren die Diskussionen in der CCW indes nicht, die Positionen der dort vertretenen Regierungen haben sich nach den Gesprächen über die Jahre immerhin etwas angenähert. Fast alle sehen eine Notwendigkeit einer menschlichen Kontrolle autonomer Waffensysteme, auch wenn sie sich in Formulierungen (etwa »bedeutsame Kontrolle«, »ausreichende Kontrolle«) unterscheiden. Auch will die Mehrheit der Staaten, dass die KI-gesteuerten Waffen für das Bedienpersonal verständlich funktionieren und anderen Beschränkungen unterliegen müssen.
Diese Fortschritte fanden in den vergangenen Jahren aber keinen Eingang in Berichte der Gruppe von Expert*innen, die eine Entscheidungsgrundlage für eine zukünftige Regulierung bilden würden. Der Grund für die Blockade liegt darin , dass die Gruppe ihre Entscheidungen im Konsens treffen soll. Einige Staaten nutzen das Konsensprinzip jedoch als de-facto Veto.
Zwar haben die Expert*innen Ende Mai dieses Jahres einen Bericht verabschiedet, der von möglichen Verboten spricht. Gemeint sind aber ausschließlich Systeme, die schon jetzt nach humanitärem Völkerrecht nicht eingesetzt werden dürfen, wenn diese beispielsweise nicht zwischen militärischen Kombattant*innen und völkerrechtlich geschützten Personen unterscheiden können. Auch der Geltungsbereich möglicher Restriktionen wird in dem Bericht bis zur Bedeutungslosigkeit verwässert. Über den weiteren Weg und das kommende Mandat wurde ebenfalls keine Einigung erzielt.
Stark lädiert wurde der Ruf Expert*innengruppe auch wegen des Ausschlusses von Beobachtenden, die im Rahmen eines »inklusiven Forums« an den Sitzungen teilnehmen können. Darin finden sich etwa die EU, Wissenschaftler*innen oder zivilgesellschaftliche Organisationen wie die internationale »Campaign to Stop Killer Robots«. Diese wurden jedoch am Abend der Beschlussfassung zu dem Bericht vom Mai allein auf Drängen Russlands des Raums verwiesen – trotz Widerstands von 21 Vertragsstaaten, darunter Deutschland.
Es ist unklar, wie es angesichts des enormen Regulierungsbedarfs und -willens vieler Staaten einerseits und der Blockade in der CCW andererseits weitergeht. Aktuell scheinen drei Optionen denkbar, darunter der Start eines Verhandlungsprozesses innerhalb der Generalversammlung der Vereinten Nationen ähnlich dem Vertrag über das Verbot von Atomwaffen. Möglich wäre auch, dass die CCW von mindestens 18 Staaten aufgefordert wird, ein Protokoll zu entwerfen das einen Verhandlungsprozess fordert – jedoch würden die bereits skizzierten Probleme der CCW bestehen bleiben. Schließlich wäre es auch möglich, dass eine Gruppe von Staaten einen Verhandlungsprozess außerhalb der Vereinten Nationen anstößt. Mit den Verbotsverträgen zu Antipersonenminen oder Streumunition gibt es auch hier erfolgreiche Beispiele der humanitären Rüstungskontrolle.
Auch die Bundesregierung hält sich zum Thema auffällig zurück. In den letzten drei Koalitionsverträgen finden sich zwar stets Bekundungen zu autonomen Waffensystemen, zuerst 2013, wonach sich die damalige schwarz-rote Bundesregierung »für eine völkerrechtliche Ächtung vollautomatisierter Waffensysteme einsetzen« wollte. Aktuell heißt es von der Ampel-Koalition: »Letale Autonome Waffensysteme, die vollständig der Verfügung des Menschen entzogen sind, lehnen wir ab. Deren internationale Ächtung treiben wir aktiv voran.« Keine der Bundesregierungen der vergangenen drei Legislaturperioden hat sich jedoch in der CCW für ein völkerrechtlich verbindliches Instrument ausgesprochen.
Mehr Infos auf www.dasnd.de/genossenschaft
Das »nd« bleibt gefährdet
Mit deiner Hilfe hat sich das »nd« zukunftsfähig aufgestellt. Dafür sagen wir danke. Und trotzdem haben wir schlechte Nachrichten. In Zeiten wie diesen bleibt eine linke Zeitung wie unsere gefährdet. Auch wenn die wirtschaftliche Entwicklung nach oben zeigt, besteht eine niedrige, sechsstellige Lücke zum Jahresende. Dein Beitrag ermöglicht uns zu recherchieren, zu schreiben und zu publizieren. Zusammen können wir linke Standpunkte verteidigen!
Mit deiner Unterstützung können wir weiterhin:
→ Unabhängige und kritische Berichterstattung bieten.
→ Themen abdecken, die anderswo übersehen werden.
→ Eine Plattform für vielfältige und marginalisierte Stimmen schaffen.
→ Gegen Falschinformationen und Hassrede anschreiben.
→ Gesellschaftliche Debatten von links begleiten und vertiefen.
Sei Teil der solidarischen Finanzierung und unterstütze das »nd« mit einem Beitrag deiner Wahl. Gemeinsam können wir eine Medienlandschaft schaffen, die unabhängig, kritisch und zugänglich für alle ist.