E-Mails formulieren, Meetings zusammenfassen, Präsentationen erstellen: Mitarbeitende nutzen inzwischen ganz selbstverständlich KI-Tools wie ChatGPT, Copilot oder Gemini, um kreative Prozesse zu beschleunigen und Routineaufgaben abzugeben. Das geschieht jedoch häufig ohne Aufsicht der zentralen IT. Dadurch entsteht Schatten-KI mit großen Risiken: Sensible Informationen können in fremde Systeme abfließen, Geschäftsgeheimnisse können offengelegt und Datenschutzvorgaben können verletzt werden.
Solche Tools zu verbieten, ist allerdings keine Option, denn damit würden Unternehmen auf große Produktivitätssteigerungen und Innovationskraft verzichten. Deshalb ist es besser, dafür zu sorgen, dass KI kontrolliert, transparent und sicher eingesetzt wird.
Daten vorbereiten: Überblick über sensible Informationen
Damit Unternehmen einen sicheren Einsatz ihrer Daten mit KI gewährleisten können, müssen sie wissen, welche sensiblen Informationen sie haben, wo diese sich befinden und wie schützenswert sie sind. Moderne Tools für Data Security Posture Management (DSPM) können die gespeicherten Daten in verteilten IT-Umgebungen – auf firmeneigenen Servern, in Clouds und auf Endgeräten – regelmäßig scannen und mithilfe von KI klassifizieren.
Gezielte KI-Nutzung erlauben
Unternehmen sollten ermitteln, welche KI-Tools ihren Mitarbeitenden tatsächlich einen handfesten Nutzen bringen, und Richtlinien aufstellen, welche Tools von welchen Nutzergruppen eingesetzt werden dürfen. Mit einem Secure-Web-Gateway (SWG) und einem Cloud-Access-Security-Broker (CASB) lassen sich die Zugriffe feingranular steuern. So wird nur autorisierten Mitarbeitern Zugang zu den KI-Tools gewährt.
Riskante Aktivitäten unterbinden durch DLP-Monitoring
Mithilfe von Monitoring-Systemen, die die DLP-Technologie (Data Loss Prevention) nutzen, können Unternehmen die Interaktionen der Nutzenden mit KI-Tools anonymisiert überwachen, riskante Verhaltensmuster identifizieren und problematische Aktionen stoppen. Wenn ein Mitarbeitender beispielsweise versucht, ein für ihn nicht zugelassenes KI-Tool zu nutzen oder einen sensiblen Textabschnitt in einen Chat zu kopieren, blendet das System einen Warnhinweis ein oder blockiert die Aktion.
Content schützen und Upload sensibler Dateien blockieren
Die DLP-Technologie ermöglicht es Unternehmen zudem, Inhalte zu schützen. Wenn Mitarbeitende Dokumente, PDFs, Bilder oder Quellcode in ein KI-Tool hochladen möchten, prüft die Technologie, ob sie sensible Informationen enthalten, und verhindert gegebenenfalls den Upload. Dies funktioniert auch dann zuverlässig, wenn sensible Inhalte in eine neue Datei eingebettet sind oder sich in einem Screenshot befinden.
Maßnahmen dynamisch anpassen durch kontextbasiertes Monitoring
Gute Monitoring-Systeme passen ihre Maßnahmen gegen riskante Aktionen mit KI-Tools automatisch an den Kontext an. Ob sie einem Mitarbeitenden nur einen Hinweis anzeigen, eine Aktion blockieren oder ihm sogar Zugriffsrechte entziehen, hängt von seinen vorangegangenen Aktivitäten und dem daraus resultierenden Gesamtbild ab. So gewährleisten die Systeme hohe Sicherheit, ohne die Produktivität der Mitarbeitenden unnötig einzuschränken.
Schulungen stärken Bewusstsein für Risiken von KI-Tools
„Neben technischen Vorkehrungen ist es wichtig, dass Unternehmen ihre Mitarbeitenden in Schulungen über die Risiken von KI-Tools aufklären und für die Einhaltung der Richtlinien sensibilisieren“, ergänzt Fabian Glöser, Manager Sales Engineering Central-, Eastern- & Northern-Europe bei Forcepoint. „Wenn sie dann im hektischen Arbeitsalltag trotzdem versuchen, sensible Daten einzugeben oder Dateien mit vertraulichen Informationen hochzuladen, sorgt die Technologie dafür, dass sie die Richtlinien einhalten.“