Agnieszka Brugger agnieszka-brugger.de

Aktuelles

GSP Sicherheitsdialog zu Künstlicher Intelligenz in der Sicherheitspolitik

Das Thema letale autonome Waffensysteme und Künstliche Intelligenz in der Sicherheitspolitik beschäftigt mich aktuell sehr, weil KI in bestimmten Bereichen schwere ethische, politische und rechtliche Fragen aufwirft.

Besonders deutlich wird dies bei der Verbreitung von tödliche autonomen Waffensystemen (LAWS), die keiner Steuerung und Kontrolle durch den Menschen unterliegen. Das können verschiedene Arten von Waffen bis hin zu komplexen Systemen sein und sie stellen eine unberechenbare Bedrohung dar und brechen mit wichtigen Prinzipien des humanitären Völkerrechts. Es ist von entscheidender Bedeutung für den Weltfrieden, über starke internationale Regulierungen und Ächtungsmechanismen zu verhindern, dass Algorithmen über Leben und Tod entscheiden und dafür zu sorgen, dass der Einfluss des Menschen (meaningful human control) sichergestellt wird.

Wenn das so gefährlich ist, warum wird das nicht verboten?

Aktuell treten Gespräche der UN über eine Regulierung und ein Verbot auf der Stelle. Auch weil verschiedene Staaten die Zeit nutzen wollen, technologisch aufzuholen, entsprechende Entwicklungen im militärischen Bereich vorantreiben und auch entsprechende Einsatzszenarien zumindest nicht glaubhaft ausschließen. Die Zeit für ein vorbeugendes Verbot wird damit immer knapper. Dabei haben die Staaten jetzt noch die große Chance, die Büchse der Pandora bei LAWS nicht zu öffnen. Denn viele Staaten haben zurecht viel Respekt vor den unklaren Auswirkungen. Deshalb müssen wir die Debatte über die großen Risiken deutlich stärker führen, als dies zurzeit der Fall ist. Die Bundesregierung hat sich im Koalitionsvertrag zu einer Ächtung bekannt und muss dieser Ankündigung endlich Taten folgen lassen:

- Sie sollte ein nationales Moratorium, wie von dem VN-Sondergesandten Heyns 2013 vorgeschlagen, für die Entwicklung und Anschaffung derartiger Waffen erlassen.

- Sich dafür einsetzen, dass auch andere EU-Staaten ein derartiges Moratorium verkünden.

- Auf eine gemeinsame EU-Ratsposition für eine umfassende völkerrechtliche Ächtung von LAWS hinwirken.

- Die Verhandlungen im Rahmen der UN unterstützen und zu einem wichtigen Thema in anderen internationalen Foren machen.

Übrigens kann KI und maschinelles Lernen in der Sicherheitspolitik auch sinnvolle Beiträge liefern, wenn mögliche Konflikte frühzeitig erkannt werden, Minen und Munitionsreste ohne Risiko für Menschen leichter geräumt werden können, dringend benötigte Güter mit einer intelligenten Logistik dort ankommen, wo sie morgen gebraucht werden, oder bei einem vorausschauenden Personal- und Ausbildungsmanagement unterstützt wird. Auch in den Bereichen Geoinformationswesen und Bekämpfung von illegalem Waffenhandel gäbe es sinnvolle Einsatzszenarien. Bisher kommt in der Bundeswehr aber nur die sogenannte „schwache KI“ und diese auch nur sehr begrenzt zur Anwendung (z. B. bei der Erstellung von Lagebildern im Lagezentrum Cyber- und Informationsraum), auch weil immer noch die nötige Strategie, Infrastruktur, Personal und Schulungen dafür fehlen. Klar muss aber auch hier sein: Erkenntnisse, Szenarien und Entscheidungsprozesse, die unter Mitwirkung von KI und maschinellem Lernen gewonnen werden, müssen dabei immer kritisch hinterfragt werden.

<- Zurück zu: Aktuelles