Kontrolle behalten

Das bedeutet Agentic AI für die Cybersicherheit

Agentic AI bietet erhebliche Chancen, wirft aber auch grundlegende Sicherheitsfragen für Unternehmen auf.

Bild: iStock, Just_Super
23.02.2026

Agentic AI schafft eine neue Generation von Systemen, die nicht nur unterstützen, sondern eigenständig Aufgaben übernehmen und sich so zunehmend von traditionellen Anwendungen wie Copiloten und Chatbots entfernen. Was für die Produktivität durchaus praktisch sein kann, bringt allerdings auch wachsende Herausforderung für die Cybersicherheit mit sich.

KI-Agenten führen Aufgaben aus, greifen auf Daten zu, initiieren Arbeitsabläufe und treffen Entscheidungen nahezu in Echtzeit. Damit verändern sie nicht nur Prozesse, sondern auch grundlegende Annahmen darüber, wie digitale Systeme gesteuert und gesichert werden. Das Produktivitätspotenzial für Unternehmen ist enorm, aber die Auswirkungen auf die Cybersicherheit sind ebenso bedeutend.

Es geht nicht mehr darum, ob Unternehmen KI-Agenten einsetzen, sondern ob deren Einsatz kontrolliert und sicher ist. Ohne klare Regeln, Verantwortung und technische Schutzmechanismen droht Agentic AI zu einem weiteren Ausgangspunkt für Sicherheitsverletzungen, Datenmissbrauch und Betriebsstörungen zu werden. In diesem Zusammenhang ist KI nicht mehr nur ein Werkzeug, sondern wird selbst zu einem sicherheitsrelevanten Akteur sowie einem potenziellen Angriffsziel.

Agentic AI als Identitätsmultiplikator

Ein wesentlicher Unterschied zu früheren Automatisierungsansätzen liegt in der Anzahl und Autonomie der Agentenidentitäten. Experten sagen voraus, dass Agentenidentitäten in naher Zukunft eine deutlich größere Rolle spielen werden als menschliche Identitäten. Jeder KI-Agent benötigt Zugriffsrechte auf Systeme, Anwendungen und sensible Informationen, um effektiv arbeiten zu können. Damit entsteht eine neue Form der Identitätsverbreitung, die bestehende Sicherheitsmodelle an ihre Grenzen bringt.

Viele Unternehmen sind auf diese Entwicklung nicht vorbereitet. In der Praxis erhalten KI-Agenten oft weitreichende Berechtigungen, Governance-Strukturen sind unklar oder fehlen ganz, und agentenbasierte Systeme werden als harmlose Automatisierung behandelt. Diese Praxis ist riskant. Autonome KI-Systeme agieren eigenständig, treffen Entscheidungen und interagieren mit kritischen Ressourcen. Genau das macht sie zu attraktiven Zielen für Angreifer.

KI-Agenten, die unkontrolliert oder mit übermäßigen Berechtigungen ausgestattet sind, eröffnen neue Angriffsmöglichkeiten. Angreifer können Agenten manipulieren oder kompromittieren, um Zugriff auf Daten zu erhalten, Prozesse zu beeinflussen oder Sicherheitsmechanismen zu umgehen. Die klassische Trennung zwischen menschlichen Benutzern und technischen Systemen verliert damit zunehmend an Bedeutung.

Identität bleibt der Kern der Cybersicherheit

Trotz aller technologischen Fortschritte gilt nach wie vor ein Grundprinzip: Cybersicherheit beginnt mit der Identität. Wenn Unternehmen ihre Sicherheitsstrategien nicht an agentische Systeme anpassen, steigt das Risiko erheblich. Bestehende Identitäts- und Autorisierungskonzepte wurden für menschliche Benutzer und klar definierte Systemkonten entwickelt, nicht für autonome Akteure, die dynamisch handeln und Entscheidungen treffen.

Wird diese Lücke nicht geschlossen, können KI-Agenten unbeabsichtigt Daten offenlegen, unbefugte Aktionen ausführen oder als Einstiegspunkt für weitere Angriffe dienen. Die Herausforderung liegt weniger in einzelnen Fehlkonfigurationen als vielmehr in der strukturellen Überlastung bestehender Sicherheitsarchitekturen.

Vertrauen, Prompts und neue Datenflüsse

Der menschliche Faktor macht die Situation noch schwieriger. Mitarbeitende neigen dazu, KI-Systeme als zuverlässige interne Partner zu behandeln. Sensible Daten werden weitergegeben, Sachverhalte detailliert beschrieben und Annahmen ungeprüft übernommen. Gleichzeitig führen unkontrollierte KI-Nutzungen zu neuen, kaum sichtbaren Datenflüssen außerhalb der etablierten Sicherheitskontrollen.

Besonders kritisch ist der Umgang mit Prompts. Diese enthalten oft vertrauliche Informationen, strategische Inhalte oder geschützte Daten. Dennoch werden sie in vielen Unternehmen nicht als sicherheitsrelevante Datenübertragungen betrachtet. Prompts sind jedoch ein zentrales Bindeglied zwischen Mensch, KI und System und erfordern klare Regeln, Überwachung und Schutzmaßnahmen.

Sicherheit für Agentic AI erfordert strukturelles Umdenken

Agentic AI bietet erhebliche Chancen, wirft aber auch eine grundlegende Sicherheitsfrage für Unternehmen auf. Wer KI-Agenten ohne klare Identitätskontrollen, minimale Berechtigungen und definierte Verantwortlichkeiten einsetzt, erhöht sein eigenes Risiko deutlich. Sicherheit darf nicht als Nebensache betrachtet werden, sondern muss ein integraler Bestandteil der Architektur agentischer Systeme sein.

Unternehmen stehen jetzt vor drei Entwicklungen, die miteinander zusammenhängen: Die Anzahl der digitalen Identitäten wächst schnell, der unkritische Umgang der Menschen mit KI führt zu immer mehr unkontrollierten Datenlecks, und Angreifer nutzen diese neue Komplexität immer gezielter aus. Erfolgreich sind die Unternehmen, die diese Dynamik früh erkennen und Sicherheitsmechanismen einrichten, bevor autonome Systeme zur nächsten großen Herausforderung für die Cybersicherheit werden.

Firmen zu diesem Artikel
Verwandte Artikel