Eine neue globale Befragung von 3.700 Business- und IT-Entscheidern, davon 200 in Deutschland, ergab, dass 70 Prozent der Entscheider in Deutschland (67 Prozent weltweit) bereits unter Druck standen, KI-Projekte trotz Sicherheitsbedenken zu genehmigen. 17 Prozent von ihnen (14 Prozent global) bezeichneten diese Bedenken sogar als „extrem“, wurden aber dennoch übergangen, um mit Wettbewerbern und internen Anforderungen Schritt zu halten.
Der Druck zu einer schnellen KI-Einführung wird außerdem durch uneinheitliche Governance-Strukturen und unklare Verantwortlichkeiten für KI-Risiken verstärkt. Cybersecurity-Verantwortliche können häufig nur noch auf Entscheidungen zur KI-Einführung reagieren, die von der Unternehmensführung getroffen werden. Das führt oftmals zu Behelfslösungen und einer verstärkten Nutzung nicht genehmigter, sogenannter „Schatten-KI“-Tools.
KI-Einführung überholt Sicherheitsmaßnahmen
Unternehmen implementieren KI schneller, als sie die damit verbundenen Risiken verwalten können. Dadurch entsteht eine wachsende Lücke zwischen Ambitionen und Kontrolle. 56 Prozent der deutschen Befragten (57 Prozent weltweit) geben an, dass sich KI schneller entwickelt, als sie sie absichern können. Gleichzeitig äußern 46 Prozent (64 Prozent weltweit), dass sie nur geringes bis mittleres Vertrauen in ihre Kenntnisse der rechtlichen Rahmenbedingungen für den Einsatz von KI im Unternehmen haben.
Auch die Reife von Governance-Strukturen bleibt niedrig. Nur 41 Prozent der deutschen Unternehmen verfügen bereits über umfassende KI-Richtlinien; 56 Prozent befinden sich noch in der Ausarbeitung entsprechender Vorgaben oder haben gerade erst damit begonnen. Rund ein Drittel der deutschen Befragten nennt zudem unklare regulatorische oder Compliance-Anforderungen als Hindernis für eine sichere KI-Nutzung. In der Praxis bedeutet dies, dass KI bereits im operativen Geschäft ausgerollt wird, bevor die Regeln für ihren Einsatz vollständig festgelegt sind.
„Unternehmen fehlt es nicht am Bewusstsein für Risiken, sondern an den Voraussetzungen, um diese wirksam zu managen“, sagt Richard Werner, Security Advisor bei TrendAI. „Wenn die Einführung von KI eher durch Wettbewerbsdruck als durch reife Governance-Strukturen getrieben wird, entsteht eine Situation, in der KI in kritische Systeme integriert wird, ohne dass die notwendigen Kontrollen vorhanden sind. Wir müssen Unternehmen deshalb dabei unterstützen, mit KI solide Ergebnisse zu erzielen und gleichzeitig ihre Geschäftsrisiken im Griff zu behalten.“
Vertrauen in autonome KI bleibt begrenzt
Das Vertrauen in fortschrittliche, autonome KI-Systeme befindet sich weiterhin in einer Reifungsphase. Lediglich 36 Prozent der deutschen Entscheider sind der Ansicht, dass agentische KI die Cyberabwehr kurzfristig deutlich verbessern wird. Damit sind die Deutschen skeptischer als die weltweiten Befragten, von denen immerhin 44 Prozent diese Hoffnung hegen. Zudem bestehen weiterhin Bedenken beim KI-Einsatz: Mehr als ein Drittel der Befragten hierzulande (36 Prozent) sehen den Zugriff von KI-Agenten auf sensible Daten als größtes Risiko. 39 Prozent von ihnen warnen davor, dass manipulierte Prompts die Sicherheit gefährden könnten, während ein Viertel (26 Prozent) eine zusätzliche Angriffsfläche für Cyberkriminelle sieht. Ein ähnlich großer Anteil (28 Prozent) befürchtet den Missbrauch des Vertrauensstatus von KI-Systemen sowie Risiken durch autonome Codebereitstellung (25 Prozent).
Gleichzeitig gibt knapp ein Drittel der deutschen Unternehmen (31 Prozent) an, dass ihnen die notwendige Transparenz oder Auditierbarkeit dieser Systeme fehlt. Das wirft grundlegende Fragen darüber auf, wie Unternehmen eingreifen oder Kontrolle ausüben können, sobald autonome Agenten im Einsatz sind. 35 Prozent der deutschen Befragten unterstützen die Einführung von „Kill-Switch“-Mechanismen für KI, mit denen Systeme im Fall von Fehlfunktionen oder Missbrauch abgeschaltet werden können. Etwa die Hälfte (49 Prozent) ist sich hierzu noch unsicher. Hier zeigt sich ein grundlegendes Problem: Unternehmen bewegen sich in Richtung autonomer KI, ohne sich darüber einig zu sein, wie Kontrolle in kritischen Situationen gewährleistet werden soll.
„Agentic AI bringt Unternehmen eine neue Kategorie von Risiken“, ergänzt Rachel Jin, Chief Platform and Business Officer und Head of TrendAI. „Unsere Studie zeigt, dass die zentralen Bedenken bereits klar sind – von der Offenlegung sensibler Daten bis hin zum Verlust von Kontrolle. Ohne Transparenz und Kontrollmechanismen setzen Unternehmen Systeme ein, die sie nicht vollständig verstehen oder steuern können. Dieses Risiko wird weiter zunehmen, wenn sie keine Gegenmaßnahmen ergreifen.“