Zum Inhalt springen
CNTR LogoMonitor2025
Fokus · Künstliche Intelligenz

Einführung: Wie die Materialisierung von KI globale Sicherheitsrisiken und Governance verändert

Künstliche Intelligenz (KI) besteht nicht mehr nur aus Codezeilen oder akademischen Experimenten. Sie wird zu einer realen, operativen Größe auf Schlachtfeldern, in kritischen Infrastrukturen und in staatlicher Macht. Dual-Use-Anwendungen, die die weltweite Sicherheit beeinflussen können, nehmen Gestalt an. Kurzum: KI hat begonnen, in globaler Machtverteilung und internationaler Sicherheit eine Rolle zu spielen. Der diesjährige CNTR Monitor untersucht, wie sich KI in der realen Welt etabliert hat und warum dieser Wandel neue Denkansätze für die Rüstungskontrolle erfordert. Unser Ziel ist es, über allgemeine Diskussionen zu KI-Risiken wie etwa langfristigen existenziellen Bedrohungen hinauszugehen und uns stattdessen auf Gefahren und Probleme in der unmittelbaren Gegenwart zu konzentrieren. Dabei gehen wir auf drei wichtige Aspekte ein: i) den zunehmenden Einsatz von KI in der militärischen Planung und im strategischen Agieren von Staaten; ii) die Dual-Use-Risiken in Bereichen wie der Biotechnologie und der chemischen Synthese; iii) die Chancen und Herausforderungen, die sich aus dem Einsatz von KI für die Verifikation und Überwachung in der Rüstungskontrolle ergeben.

Im Gegensatz zu vielen anderen Digitaltechnologien, deren Entwicklung mittlerweile eine stationäre Phase erreicht hat, sind die kontinuierlichen Verbesserungen bei der KI die Folge von Fortschritten bei der Software, Innovationen bei der Hardware und einem besseren Zugang zu Daten, die alle synergistisch zusammenwirken. Das vernetzte Entwicklungstempo bedeutet, dass Durchbrüche in einem Bereich, wie z. B. in der oder der Chip-Optimierung, rasch die Möglichkeiten in anderen Bereichen erweitern.

Darüber hinaus ist die Entwicklung von KI nicht auf staatliche Agierende oder Rüstungsunternehmen beschränkt, sondern wird hauptsächlich von privaten Unternehmen und universitären Einrichtungen vorangetrieben, was unterstreicht, wie wichtig es ist, das zu berücksichtigen.

Diese Akteur*innen arbeiten auch mit unterschiedlichen Anreizen und unterschiedlichen Maßen an Offenheit bezüglich ihrer KI-Systeme, Fähigkeiten und Ziele. Dies stellt eine Herausforderung für die Einführung von Regulationsmechanismen dar, die bisher üblicherweise für genau definierte physikalische Technologien entwickelt wurden.

KI als disruptive Technologie und regulatorische Herausforderung

KI – wie sie sich derzeit konkretisiert – ist nicht einfach ein einzelnes „Weltuntergangsrisiko“ wie autonome Waffen oder bösartige Superintelligenz, sondern ein Beschleuniger des Wandels in allen Sicherheitsbereichen. Sie hat Auswirkungen auf die Gegenwart und die Zukunft der Kriegsführung. In den Bereichen Geheimdienstarbeit und Planung beschleunigt die KI die Aggregation und Interpretation großer Datenströme. Im Verteidigungsbereich werden die Fähigkeiten hinsichtlich Zielerfassung, Logistik und Simulation neudefiniert. In Forschung und Innovation entstehen KI-Werkzeuge, die für unverantwortliche oder illegale militärische Anwendungen oder für terroristische oder kriminelle Zwecke missbraucht werden können.

Eine der bislang tiefgreifendsten Entwicklungen im Bereich der KI ist die Entwicklung großer Allzwecksysteme, sogenannter . Diese Modelle werden auf riesigen, unaufbereiteten Datensätzen trainiert und erlangen damit die Fähigkeit, Texte, Bilder, Codes und sogar Molekularstrukturen zu generieren. Flexibel und leistungsstark, verändern Grundlagenmodelle in vielen Bereichen die Art und Weise, wie KI erstellt, genutzt und angewendet wird. Grundlagenmodelle senken die Hürden für Funktionen nach dem neusten Stand der Technik, indem sie leistungsstarke Instrumente allgemein zugänglich machen. Vor allem die mangelnde Transparenz vieler KI-Systeme erschwert die Beurteilung potenzieller Bedrohungen. Sogenannte erzeugen Ergebnisse, ohne einen klaren Einblick in die internen Überlegungen zu geben, die zu diesen Ergebnissen geführt haben. Dies wirft Probleme hinsichtlich der Rechenschaftspflicht und Verifikation auf. Sobald diese Modelle veröffentlicht werden, insbesondere als Open-Source-Tools, wird die Kontrolle über ihre spätere Verwendung äußerst schwierig.

Die Grenze zwischen Forschung und Einsatz verschwimmt, während die rechtlichen und technischen Durchsetzungsmechanismen kaum Schritt halten können. Die Bemühungen, Grundlagenmodelle einer Regulierung zu unterstellen, befinden sich noch im Anfangsstadium. Einige Expert*innen regen Lizenzierungsregelungen oder Exportkontrollen für hochleistungsfähige Modelle an. Andere schlagen Sicherheitsprüfungen vor der öffentlichen Freigabe vor. Diese Ideen sehen sich jedoch mit rechtlichen Unterschieden, der Schwierigkeit einer Durchsetzung von Regeln und dem Kompromiss zwischen Fortschritt und Risikomanagement konfrontiert. Die politischen Entscheidungsträger stehen vor einem schwierigen Balanceakt: Allzu restriktive Regulierung kann nützliche Forschung unterdrücken oder die Macht in den Händen von einigen wenigen Agierenden konzentrieren, während unvoreingenommenere Ansätze die Verbreitung von KI-Fähigkeiten ohne Sicherheitsvorkehrungen beschleunigen können.

Rüstungkontrolle und Verifikation im Zeitalter der Algorithmen

Traditionelle Ansätze der Rüstungskontrolle passen nicht gut zu KI. Die meisten haben sich im Zusammenhang mit physischen Systemen wie ballistischen Raketen, Atomwaffen oder chemischen Vorräten entwickelt, deren Aufstellung quantifiziert werden kann. Im Gegensatz dazu ist KI softwarebasiert, kann schnell aktualisiert werden und ist von Natur aus dual-use. Dieselbe zugrundeliegende Modellarchitektur kann für die Krebsforschung oder zur Simulation von Strategien auf dem Schlachtfeld angepasst werden. Dies führt zu drei Hauptproblemen. Erstens wird die Verifikation schwierig, wenn das betreffende Objekt in Code oder Infrastruktur eingebettet ist und nicht in Hardware implementiert. Zweitens ist der Bereich in zu schneller Bewegung für statische Verträge. Zu dem Zeitpunkt, an dem Vereinbarungen getroffen werden, können sich die wesentlichen Technologien bereits geändert haben. Drittens spricht die Rüstungskontrolle zwar immer die staatliche Ebene an, aber auch nichtstaatliche Agierende oder Einzelpersonen mit Zugang zu Open-Source-Tools und Cloud Computing müssen berücksichtigt werden.

Über die Frage der KI-Regulierung selbst hinaus hat KI Auswirkungen auf die Bereiche Nichtverbreitung, Rüstungskontrolle und Abrüstung sowohl von konventionellen als auch von Massenvernichtungswaffen. Der Dual-Use-Charakter vieler KI-Instrumente gibt daher Anlass zu großer Sorge. Eine wichtige Frage dabei ist, ob weithin verfügbare KI-Tools für Forschung und Innovation die Hürden für die Verbreitung von Massenvernichtungswaffen senken könnten. So könnte KI beispielsweise bei der Entwicklung neuer chemischer oder biologischer Verbindungen helfen und möglicherweise technische Hemmnisse für Missbrauch ausräumen.

Dennoch kann die KI auch Möglichkeiten für neue Formen der Rüstungskontrollverifikation bieten. KI-Systeme können zum Beispiel eingesetzt werden, um Com­pliance-Verhalten zu modellieren, durch Musteranalyse Verstöße zu erkennen oder die Überwachung durch die Erkennung von Anomalien zu unterstützen. Der Einsatz von KI in der Verifikation bringt jedoch auch Herausforderungen mit sich, wie z. B. die Notwendigkeit der Erklärungsfähigkeit und der menschlichen Überwachung, die für die Gewährleistung von Vertrauen und Transparenz in sensiblen Kontexten unerlässlich sind. Eine strenge Validierung und ein klarer Rahmen hinsichtlich der Rechenschaftspflicht sind ebenfalls unerlässlich. Um diese Möglichkeiten zu nutzen, müssen Rüstungskontrollexpert*innen und KI-Forscher*innen zusammenarbeiten.

Institutionelle Lücken und internationale Zersplitterung

Trotz des wachsenden Bewusstseins für die Auswirkungen von KI auf die Sicherheit sind die institutionellen Reaktionen nach wie vor uneinheitlich. Auf nationaler Ebene gehen die Regulierungsstrategien weit auseinander. Der „AI Act“ der Europäischen Union stellt einen Rahmen dar, der auf einer risikobasierten Klassifizierung und auf Rechten basierenden Verpflichtungen beruht. Seine globale Wirkung hängt jedoch von der Akzeptanz außerhalb der EU-Grenzen ab. Im Gegensatz dazu haben die Vereinigten Staaten eine Kombination aus freiwilligen Selbstverpflichtungen, Industrierichtlinien und Exekutivanordnungen verwendet, wie z. B. die Exekutivanordnung 2023 zur KI, die sich in ihrer Politik auf die nationale Sicherheit konzentriert. China integriert KI weiterhin in seine breitere strategische Planung, indem es die Regulierung inländischer Inhalte mit langfristigen, staatlich geführten Investitionen kombiniert. Auf internationaler Ebene sind die meisten Initiativen unverbindlich geblieben.

Die KI-Grundsätze der OECD,1 die Ethik-Empfehlung der UNESCO,2 und die Globale Partnerschaft für KI (Global Partnership on AI, GPAI), in der die KI-Bemühungen der OECD-Mitgliedsländer zusammengefasst sind, betonen Werte wie Rechenschaftspflicht und Transparenz, haben aber keine praktische Durchsetzbarkeit. In der Zwischenzeit haben sich die Diskussionen in den UN-Foren, wie z. B. der Gruppe der Regierungssachverständigen für autonome Waffensysteme (LAWS), schwergetan, einen Konsens zu erreichen oder konkrete Vereinbarungen zu treffen, und sind oft an der Notwendigkeit einstimmiger Entscheidungen gescheitert.

In den Bereichen Forschung und Innovation ist es wichtig, die Forschungsfreiheit zu schützen, was eine eigene Herausforderung darstellt. Es zeigt sich, dass nicht alle Risiken mit rechtlichen Mitteln angegangen werden können oder auch nur sollten. In sensiblen Bereichen wie der Biotechnologie oder der Chemie unterstreichen die Grenzen der Regulierungsmöglichkeiten die Bedeutung der Verantwortung und der Verhaltensnormen der einzelnen Forschenden. Ethische Beratungsgremien und strukturierte Bildungsprogramme zum Umgang mit Dual-Use-Forschung müssen eine Grundlage für verantwortungsvolle Innovation schaffen.

Diese fragmentierte Lenkungsstruktur führt zu Lücken, da nur wenige Organisationen über die Autorität, das technische Know-how oder das Vertrauen verfügen, um Regeln für die KI-Sicherheit aufzustellen. Erschwerend kommt hinzu, dass der strategische Wettbewerb zwischen den Großmächten eine Zusammenarbeit bei sicherheitssensiblen KI-Anwendungen auf kurze Sicht unwahrscheinlich macht. Doch ohne gemeinsame Regeln könnte die militärische Nutzung fortschrittlicher KI-Systeme die Spannungen in einem ohnehin schon fragilen globalen Umfeld noch verstärken.

Auf dem Weg zu mehrschichtigen KI-Sicherheitslösungen

Die Auswirkungen der KI auf Sicherheitsfragen lassen sich nicht durch ein einzelnes Abkommen oder eine universelle technische Lösung beheben. Was wir brauchen, ist ein mehrschichtiges, anpassungsfähiges Lenkungsmodell, das nationale Regulierung, internationale Normen, Industriekooperation, verantwortungsvolle Forschung und Innovation sowie technische Standards verbindet. Es gibt mehrere nützliche Ausgangspunkte.

Erstens können technische Standards für Robustheit, Interpretierbarkeit und Reaktion auf Vorfälle – d. h. wie Fehler oder Missbrauch erkannt und gehandhabt werden – dazu beitragen, eine gemeinsame Basis für eine verantwortungsvolle Entwicklung zu definieren. Diese Standards sollten von Normungsgremien, Forschenden und Praktiker*innen gemeinsam entwickelt werden und in die Art und Weise, wie Systeme gekauft und zertifiziert werden, einfließen.

Zweitens ist eine strukturierte öffentlich-private Zusammenarbeit unerlässlich. Private Unternehmen entwickeln die Mehrzahl der bahnbrechenden KI-Modelle. Die Regierungen müssen daher Wege finden, Anreize für verantwortungsvolles Verhalten zu schaffen, ohne die Innovation zu ersticken. Gemeinsame Forschungsinstitute, sichere Modellbewertungsrahmen und gemeinschaftliche Kanäle für die Meldung von Vorfällen, die es den Beteiligten ermöglichen, sich auszutauschen und aus KI-bezogenen Fehlern oder Bedrohungen zu lernen, können dazu beitragen, die Kluft zwischen öffentlichem Interesse und kommerziellen Möglichkeiten zu überbrücken.

Wir brauchen jetzt eine realistische Einschätzung der Auswirkungen der KI. Dazu gehört, dass wir über vage ethische Verpflichtungen hinausgehen und stattdessen Institutionen, Regeln und Praktiken aufbauen, die in der Lage sind, das disruptive Potenzial der KI unter Kontrolle zu bekommen.

Drittens sollten sich die internationalen Bemühungen auch in Ermangelung verbindlicher Verträge auf pragmatische Maßnahmen konzentrieren, die das Risiko senken und Vertrauen schaffen. Dazu können Transparenzmechanismen, vertrauensbildende Maßnahmen und gemeinsame Sicherheitsbewertungen gehören. Das Ziel sollte nicht sein, eine universelle Einigung über jeglichen Einsatz von KI zu erreichen, sondern glaubwürdige Schritte zu unternehmen, die die folgenreichsten Risiken der Verbreitung und des Fehlgebrauchs verringern.

Schlussfolgerungen

Künstliche Intelligenz ist keine ferne oder spekulative Herausforderung, sondern eine strategische Realität mit unmittelbaren Folgen für die globale Sicherheit. Sie verändert die Art und Weise, wie Konflikte ausgetragen werden und die Macht verteilt ist und ausgeübt wird. KI ist zwar nicht per se eine Waffe oder eine existenzielle Bedrohung, aber ohne angemessene Überwachung könnte ihre Integration in sicherheitsrelevante Architekturen Instabilitäten verstärken, Ungleichheiten verschärfen und Rechenschaftspflichten untergraben. Gleichzeitig aber bietet KI vielversprechende Möglichkeiten, die Sicherheit durch verbesserte Überwachung, Verifikation und Vorhersagefähigkeiten zu erhöhen, die eine effektivere Rüstungskontrolle und Risikominderung unterstützen könnten.

Wir brauchen jetzt eine realistische Einschätzung der Auswirkungen der KI. Dazu gehört, dass wir über vage ethische Verpflichtungen hinausgehen und stattdessen Institutionen, Regeln und Praktiken aufbauen, die in der Lage sind, das disruptive Potenzial der KI unter Kontrolle zu bekommen. Politische Entscheidungsträger müssen nicht nur verstehen, wie KI eingesetzt wird, sondern auch, wie die Risiken der KI durch die von ihr getroffenen Entscheidungen beeinflusst werden. Dies erfordert eine intensive Auseinandersetzung mit den technischen, rechtlichen und strategischen Dimensionen der KI, nicht um sie einzudämmen, sondern um sie verantwortungsvoll zu steuern. Die Herausforderung besteht nicht nur darin, auf die heutige KI zu reagieren, sondern auch zu antizipieren, wie sich die KI weiterentwickeln wird, und sicherzustellen, dass die politische Lenkung in Sicherheitsfragen nicht den Anschluss verliert.

  1. Organisation for Economic Co-operation and Development. (n.d.). AI principles. Abgerufen am 9. September 2025, unter https://www.oecd.org/en/topics/sub-issues/ai-principles.html
  2. United Nations Educational, Scientific and Cultural Organization. (2023). Recommendation on the Ethics of Artificial Intelligence. https://www.unesco.org/