Die Bundeswehr beschleunigt ihre Beschaffungsprozesse und investiert verstärkt in moderne Waffensysteme. Dazu gehören unter anderem Kampf- und Aufklärungsdrohnen, die mithilfe von künstlicher Intelligenz weitgehend autonom agieren können. Eine große Mehrheit der Bevölkerung befürwortet diesen Kurs. 81 Prozent der Bundesbürgerinnen und Bundesbürger finden es grundsätzlich sinnvoll, dass die Bundeswehr stärker in die Entwicklung militärischer KI-Technologien wie Drohnen, Roboter oder autonome Fahrzeuge investiert. 11 Prozent lehnen das ab, 8 Prozent sind unentschieden. Das hat eine repräsentative Forsa-Umfrage im Auftrag des TÜV-Verbands unter 1.005 Personen ab 16 Jahren ergeben.
„Die Bürgerinnen und Bürger erkennen, dass neue Technologien auch die sicherheitspolitische Lage verändern“, sagt Dr. Joachim Bühler, Geschäftsführer des TÜV-Verbands. „Moderne Streitkräfte kommen an modernen Verteidigungssystemen mit Künstlicher Intelligenz nicht vorbei. Entscheidend ist, dass die Politik für ihren Einsatz klare Leitplanken definiert.“ Die aktuelle Umfrage des TÜV-Verbands zeigt: Eine klare Mehrheit unterstützt zwar eine technologisch zeitgemäße Ausstattung, fordert aber klare Grenzen bei autonomen Waffensystemen.
Sorge vor Fehlentscheidungen und Eskalation
Laut den Ergebnissen der Umfrage fürchten zwei Drittel der Befragten (67 Prozent) Fehlentscheidungen autonomer Systeme, beispielsweise durch falsche Zielerkennung. 64 Prozent sehen die Gefahr, dass der Mensch die Kontrolle über KI-gesteuerte Waffensysteme verlieren könnte. 63 Prozent machen sich Sorgen über wachsende Spannungen durch ein internationales Wettrüsten mit KI-Technologien. 61 Prozent halten ungewollte Eskalationen oder eine Ausweitung von Konflikten für ein realistisches Risiko.
„Die Bevölkerung sieht beim militärischen Einsatz von KI nicht nur Effizienz- und Verteidigungspotenziale, sondern auch erhebliche Risiken“, sagt Bühler. „Gerade bei autonomen Systemen fürchten die Befragten einen Kontrollverlust, der zur Entstehung oder Ausweitung militärischer Konflikte führen kann.“
Autonome KI-Systeme nur mit menschlicher Kontrolle
Im Zentrum der Debatte steht die Frage, wer im Verteidigungsfall über den Einsatz von Waffengewalt entscheidet: Der Mensch oder das KI-System? Vier von zehn Befragten (40 Prozent) sprechen sich für eine vollständige menschliche Kontrolle aus. Jede einzelne Entscheidung eines KI-Systems müsse überprüft werden. Immerhin 41 Prozent befürworten den Einsatz teilautonomer Systeme. Diese Waffensysteme erstellen Analysen, machen Vorschläge und treffen eigenständig Entscheidungen, wobei Menschen jederzeit eingreifen können. Vollautonome Systeme ohne menschliche Kontrolle finden mit nur einem Prozent Zustimmung praktisch keine Akzeptanz bei den Befragten. Insgesamt verlangen somit 81 Prozent eine klare menschliche Letztverantwortung. Fast jeder achte Befragte (12 Prozent) lehnt es grundsätzlich ab, KI-Systemen Entscheidungsbefugnisse über den Einsatz von Waffengewalt einzuräumen.
Verhandlungen über Regeln für autonome Waffensysteme
Während sich der Einsatz KI-gestützter Waffensysteme in militärischen Konflikten zunehmend zum Standard entwickelt, wird in internationalen UN-Gremien über verbindliche Regeln bis hin zu einem Verbot diskutiert. Im Rahmen der UN-Waffenkonvention konnten sich die Länder bisher jedoch nicht auf einheitliche Regelungen einigen. Auch beim jüngsten AI Summit in Indien wurde über den militärischen Einsatz von KI diskutiert. Der europäische AI Act konzentriert sich auf zivile Anwendungen und schließt KI-Systeme aus, die ausschließlich für militärische, verteidigungspolitische oder nationale Sicherheitszwecke genutzt werden.
Allerdings sind viele KI-Systeme dual-use-fähig und können sowohl zivil als auch militärisch genutzt werden. In diesem Fall greift der AI Act. „Der AI Act adressiert auch die technische Sicherheit von KI-Systemen. Themen wie Qualität der Trainingsdaten, menschliche Aufsicht oder Nachvollzieharbeit von Entscheidungen, sind sowohl für zivile als auch für militärische KI-Anwendungen essenziell“, sagt Bühler. Im Kern müsse es darum gehen, auf allen Ebenen einen verantwortungsvollen Umgang mit sicherheitskritischen Technologien zu finden. Bühler ergänzt: „Verteidigungsfähigkeit bedeutet nicht, Maschinen die Entscheidung über Leben und Tod zu überlassen. Sie bedeutet, Technologie so zu gestalten, dass sie unsere Sicherheit stärkt, ohne die menschliche Hoheit aufzugeben.“