Internationale Initiativen und Kernprinzipien für den sicheren Umgang mit KI
Summit on Responsible Artificial Intelligence in the Military Domain 2023 (REAIM)
Im Zuge der REAIM-Konferenz1 haben Regierungsvertreter von 57 Staaten2 – darunter die USA, China und der Großteil der EU-Staaten – einen gemeinsamen Aktionsaufruf zur verantwortungsvollen Entwicklung, Einführung und Nutzung von künstlicher Intelligenz (KI) im militärischen Bereich3 verabschiedet. Auf der Grundlage, dass KI einen massiven Einfluss auf militärische Systeme haben wird, dieser Einfluss aktuell aber noch gar nicht vollständig verstanden wird, wurden folgende, politisch nicht bindende, Prinzipien formuliert:
- Der Mensch soll beim Einsatz von KI im militärischen Bereich verantwortlich sowie rechenschaftspflichtig bleiben und der Einsatz von KI-Systemen stets unter menschlicher Aufsicht erfolgen.
- Militärisches Personal soll ausreichend geschult sein, um die möglichen Einflüsse wie potenzielle Verzerrungen in den Daten (Data-Bias) und die Konsequenzen des Vertrauens in die Entscheidungen von KI-Systemen und deren Einsatz zu überblicken.
- Auf die verfrühte Umsetzung von KI ohne ausreichende Forschung, Prüfung und Sicherheit sollte zugunsten eines alle Stakeholder einbeziehenden Ansatzes verzichtet werden, um ungewollten Schaden zu vermeiden.
- Trainingsdaten von KI-Systemen sollen in einer Weise erhoben, genutzt, weitergegeben, und archiviert werden, die dem Völkerrecht sowie den einschlägigen Rechtsrahmen und Daten- und Sicherheitsstandards entsprechen.
Da ein Großteil der globalen KI-Forschung und Innovation im zivilen Bereich stattfindet, rufen die unterzeichnenden Staaten dazu auf, dies mit Blick auf die Verantwortung für die internationale Sicherheit und im Einklang mit dem Völkerrecht zu leisten. Allerdings fehlen in den Prinzipien Aussagen zur Selbstbeschränkung von Staaten beim Einsatz militärischer KI.
AI Safety Summit 2023 und „Bletchley Declaration“
Der im November 2023 durch die britische Regierung veranstaltete AI Safety Summit 20234 griff die Impulse der REAIM-2023-Konferenz auf und hatte sich zum Ziel gesetzt, Menschen- und völkerrechtliche Risiken beim Einsatz von KI – nicht nur im militärischen Bereich – zu erörtern. In Kooperation mit Tech-Unternehmen sollten international koordinierte Maßnahmen ausgelotet werden, um die Gefahren dieser Technologie abzumildern.
Die als „Bletchley Declaration“5 betitelte und von 29 Staaten – darunter China, die USA und Deutschland – unterzeichnete Abschlusserklärung unterstreicht, dass folgende Prinzipien bei der Entwicklung und dem Einsatz von KI oberste Priorität haben sollen:
- der Schutz der Menschenrechte
- die Transparenz und Erklärbarkeit der Ergebnisse
- die angemessene menschliche Aufsicht der verwendeten KI-Systeme
- Rechenschaftspflicht und Einsatz der KI auf Grundlage ethischer Prinzipien
Die Erklärung unterstreicht darüber hinaus eine Warnung, die bereits im Rahmen der REAIM-Konferenz geäußert wurde: Angesichts der enormen Entwicklungsgeschwindigkeit von KI und den Trends hin zu hochgradig fähigen und universell einsetzbaren KI-Modellen (sogenannten general-purpose AI models) sind die sich daraus ergebenden Risiken nicht vollständig verstanden. Vor diesem Hintergrund regt die Deklaration die Entwicklung nationaler – und im besten Fall international abgestimmter – Regelungen und Frameworks zur Risikobewertung und Risikominimierungsstrategien an.
Die Perspektiven Chinas und der USA auf den Umgang mit Künstlicher Intelligenz
Nahezu zeitgleich zu der Konferenz in Blechtley Park und im Abstand von wenigen Wochen haben sowohl die USA als auch China eigene Vorschläge für den Umgang mit KI vorgelegt. Der Vorstoß der USA, betitelt als „Political Declaration on Responsible Military Use of Artificial Intelligence and Autonomy“,6 dem sich mittlerweile 52 Staaten7 angeschlossen haben, bezieht sich dabei ausschließlich auf den militärischen Einsatz dieser Technologie. Demgegenüber widmet sich Chinas „Global AI Governance Initiative“8 dem breiteren Einsatz von KI, geht aber auch auf die militärische Nutzung ein. Beide Deklarationen folgen im Kern den bereits genannten Prinzipien, insbesondere bei der Hervorhebung des Spannungsfelds zwischen Fortschritt und Bedrohung, dem Aufruf geltendes internationales Recht zu beachten und dem Anspruch auf vertrauenswürdige und nachvollziehbare KI-Produkte und Anwendungen. Hinsichtlich der militärischen Nutzung von KI verweist Chinas Vorschlag zwar darauf, dass „insbesondere die großen Länder, (..) eine umsichtige und verantwortungsvolle Haltung gegenüber der Forschung, Entwicklung und Anwendung von KI-Technologien im militärischen Bereich einnehmen“ sollten, geht darüber hinaus aber nicht auf weitere, spezifischere Prinzipien ein. Der US-amerikanische Vorschlag wiederum stellt die Notwendigkeit einer menschlichen Aufsicht über den Einsatz militärischer KI-Systeme heraus, lässt dabei aber offen, in welchem Umfang diese Systeme auch vollkommen autonom agieren dürfen – was im Umkehrschluss auch den autonomen Einsatz von Waffengewalt nicht ausschließt.
Vor dem Hintergrund, dass der Zugriff auf die notwendigen High-Tech-Ressourcen bei der Entwicklung und Anwendung moderner KI-Systeme, wie beispielsweise spezialisierte Mikrochips, zunehmend Bestandteil des globalen Power-Plays zwischen Staaten wird, enthält Chinas Position einen weiteren Aspekt der klar darauf abzielt. Die Deklaration spricht sich nämlich dagegen aus „ideologische Grenzen zu ziehen oder exklusive Gruppen zu bilden, um andere Länder an der Entwicklung von KI zu hindern“ sowie „gegen die Schaffung von Barrieren und die Unterbrechung der globalen KI-Lieferkette durch technologische Monopole und einseitige Zwangsmaßnahmen“. Dieser Passus kann nur als klare Kritik an den US- und teilweise auch EU-Exportkontrollrestriktionen9 auf die, für KI-Anwendungen benötigten, hochspezialisierten Mikroprozessoren verstanden werden.
Resolutionen der EU und UN mit Fokus auf nicht-militärische Nutzung von KI
Im März 2024 hat nun auch die EU ihre seit 2021 in Arbeit befindlichen Vorgaben für die Regulation von KI und KI-Produkten veröffentlicht, die als weltweit erstes verbindliches Rahmenwerk angesehen werden. Der „EU AI Act“10 (AIA) bezieht sich dabei jedoch explizit nicht auf militärisch genutzte KI-Systeme, da Militär und Verteidigung „dem Völkerrecht unterliegen (...), das daher der geeignetere Rechtsrahmen für die für die Regulierung von KI-Systemen im Zusammenhang mit der Anwendung von tödlicher Gewalt und anderen KI-Systemen im Zusammenhang mit militärischen und verteidigungspolitischen Aktivitäten“ ist. Stattdessen betont der AIA die Relevanz von KI für gesellschaftliche und wirtschaftliche Fortschritte innerhalb der EU, erkennt aber die Sicherheitsgefahren an, die von diesen Systemen ausgehen können. Um die Kritikalität von KI-Anwendungen zu bewerten, werden Kriterien definiert, die sowohl technische, ökonomische als auch menschenrechtliche Aspekte bei der Herstellung und dem Einsatz von KI beinhalten. Entlang dieser Kriterien werden Auflagen zur Sicherung, der Kontrolle und Rechtssicherheit für KI-Systeme definiert, die als verbindliche Grundsätze in nationale Gesetzgebung der EU-Staaten übergehen sollen.
Schlussendlich hat sich auch die UN in ihrer Vollversammlung am 11.3.2024 auf die Resolution „Seizing the opportunities of safe, secure and trustworthy artificial intelligence systems for sustainable development“11 verständigt, die sich der Nutzung und den Chancen sicherer und vertrauenswürdiger KI-Systeme widmet. Die Resolution basiert auf einem Vorschlag der USA und wurde von mehr als 120 Ländern angenommen, bezieht sich jedoch ähnlich wie der AIA ausdrücklich nur auf den nicht-militärischen Gebrauch von KI und die Förderung sicherer und vertrauenswürdiger KI-Systeme für den Fortschritt in Bezug auf Menschenrechte, gemeinsame Entwicklungsziele und Nachhaltigkeit. Gleichwohl wird aber auch betont, dass dabei Menschen im Zentrum stehen sollen und KI in den falschen Händen eine erhebliche Gefährdung darstellt. Um diese gezielt zu bewerten, wird die Entwicklung und der Einsatz von Werkzeugen zur „international interoperablen Identifizierung, Klassifizierung, Bewertung und Prüfung, Vorbeugung und Abschwächung von Schwachstellen und Risiken während der Konzeption, Entwicklung und der Nutzung von KI-Systemen“ empfohlen.
Die US-Executive Order 14110 als Ansatz für Exportkontrolle von für KI
Mit der „Executive Order on Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence“12 von 2023 haben die USA einen wertvollen Ansatz für die zukünftige Entwicklung von Exportkontroll- und Regulierungsmaßnahmen von KI geliefertt. Mit der Anordnung werden für die Entwicklung und den Einsatz von KI innerhalb der USA die Gültigkeit von Bürgerrecht festgeschrieben sowie Sicherheitsstandards im Bereich der Cybersicherheit aber auch hinsichtlich Maßnahmen zur Vermeidung von Biases definiert. Ein entscheidender Vorstoß der Anordnung besteht darin, die Gültigkeit dieser Auflagen an die benötigte Gesamtrechenleistung, die für das Training oder die Ausführung eines KI-System benötigt wird zu knüpfen. Dafür wird festgesetzt, dass:
(...) The Secretary shall require compliance with these reporting requirements for: (i) any model that was trained using a quantity of computing power greater than 1026 integer or floating-point operations, or using primarily biological sequence data and using a quantity of computing power greater than 1023 integer or floating-point operations; and (ii) any computing cluster that has a set of machines physically co-located in a single datacenter, transitively connected by data center networking of over 100 Gbit/s, and having a theoretical maximum computing capacity of 1020 integer or floating-point operations per second for training AI.
Insbesondere die Rechenleistung sowie Netzwerk-Kapazitäten gelten als entscheidende Faktoren für komplexe KI-Systeme und sind essenzieller Bestandteil bei Planungen zu deren Einsatz. Vor diesem Hintergrund definiert die Executive Order eine messbare Schwelle für die Regulierung von KI, die effektiv und sinnvoll vor deren Einsatz festgestellt und für Regulierungsbehörden berücksichtigt werden kann. Gleichwohl müssen solche festen Werte einer kontinuierlichen Überprüfung und Anpassung unterliegen, um mit technischen Entwicklungen Schritt zu halten.
Footnotes
-
Ministry of Foreign Affairs. (2023). REAIM 2023. Government of the Netherlands. https://www.government.nl/ministries/ministry-of-foreign-affairs/activiteiten/reaim ↩
-
Ministry of Foreign Affairs. (2023, 21. Februar). REAIM 2023 Endorsing Countries and Territories. Government of the Netherlands. https://www.government.nl/documents/publications/2023/02/16/reaim-2023-endorsing-countries ↩
-
Ministry of Foreign Affairs. (2023, 21. Februar). REAIM 2023 Call to Action. Government of the Netherlands. https://www.government.nl/documents/publications/2023/02/16/reaim-2023-call-to-action ↩
-
Government of the United Kingdom. About the AI Safety Summit 2023. Government of the United Kingdom. https://www.gov.uk/government/topical-events/ai-safety-summit-2023/about ↩
-
https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023 ↩
-
https://www.state.gov/political-declaration-on-responsible-military-use-of-artificial-intelligence-and-autonomy-2/ ↩
-
Bureau of Arms Control, Deterrence, and Stability. (2024). Political Declaration on Responsible Military Use of Artificial Intelligence and Autonomy. U.S. Department of State. https://www.state.gov/political-declaration-on-responsible-military-use-of-artificial-intelligence-and-autonomy/ ↩
-
Ministry of Foreign Affairs. Global AI Governance Initiative. The People’s Republic of China. http://gd.china-embassy.gov.cn/eng/zxhd_1/202310/t20231024_11167412.htm ↩
-
Allen, G. C. (2023, 3. Mai). China’s New Strategy for Waging the Microchip Tech War. Center for Strategic & International Studies. https://www.csis.org/analysis/chinas-new-strategy-waging-microchip-tech-war ↩
-
https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6473 ↩
-
https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence/ ↩