Interview über Künstliche Intelligenz in der Cyberkriminalität „Die Schäden eines KI-Supercomputers sind unvorstellbar“

KI gegen KI – keine Science-Fiction, sondern bereits Realität, wie Boris Cipot von Synopsys Software Integrity erläutert.

Bild: Synopsys
20.03.2020

Künstliche Intelligenz wird mittlerweile in vielen Feldern der Wissenschaft und Industrie eingesetzt. Dabei werden zunehmend Warnungen vor Cyberangriffen laut, die sich KI zunutze machen. Ob es sich dabei schon jetzt um reale Bedrohungen handelt und womit wir in der Zukunft zu rechnen haben, erklärt Boris Cipot, Senior Security Engineer bei Synopsys Software Integrity, im Interview.

Sind Cyberangriffe, die auf Methoden der KI basieren, schon Realität oder eher etwas, mit dem wir in Zukunft zu rechnen haben?

KI-gesteuerte Malware und Angriffe sind durchaus mögliche Szenarien, aber es handelt sich eher um eine Bedrohung, mit der wir in Zukunft stärker werden rechnen müssen. Was wir allerdings sehr wohl schon jetzt sehen, sind Anzeichen für „smarte“ Malware. Sie ist bis zu einem gewissen Grad in der Lage, Benutzer- und Systemverhalten nachzuahmen. Angriffe dieser Art können Geräte infizieren und potenziell ganze Netzwerke durchdringen, wenn die Malware den richtigen Zeitpunkt abwartet, um zuzuschlagen. Trotzdem ist das kein Angriff, der sich vollständig auf KI-basierte Methoden stützt, sondern von einem Hacker gesteuert wird. Smarte Malware mag da zunächst nur wie ein relativ kleiner Fortschritt erscheinen. Aber die Entwicklung signalisiert, dass wir uns bei Cyberangriffen ganz eindeutig in eine KI-basierte Richtung bewegen.

Wie nutzen Cyberkriminelle KI, um sich einen technologischen Vorsprung zu verschaffen?

Am häufigsten nutzen Cyberkriminelle KI in Zusammenhang mit Malware. Eine Vorgehensweise, wie sie seit Jahren praktiziert wird: Unterschiedliche Arten von Malware versuchen, Systeme zu infizieren und sich unbemerkt im Netzwerk zu verbreiten. Malware profitiert von KI, indem sie durch sie zunehmend autark agieren kann. Stellen Sie sich beispielsweise vor, was ein Malware-Programm in einem Unternehmen anrichten kann, wenn es sich an die Systeme und Situationen, in denen es sich befindet, anpassen könnte: Zum Beispiel Benutzerverhalten imitieren und verstehen können, wann Befehle ausgeführt oder Daten gesendet werden müssen, um die Anomalieerkennung zu umgehen. Eine derart unabhängige Schadsoftware würde möglicherweise jahrelang unentdeckt bleiben. Riesige Mengen an Daten könnten abgezogen werden und einem Unternehmen katastrophalen Schaden zufügen. Und auf der anderen Seite für Cyberkriminelle ausgesprochen profitabel sein.

Ist es richtig, dass Cyberkriminelle Open-Source-basierte KI-Software verwenden? Und wie lässt sich die KI so steuern, dass sie genau das tut, was die Angreifer erreichen wollen? Welchen Datentypen verwenden sie beispielsweise, um ihre KI-Modelle zu entwickeln?

Open-Source-Software unterstützt Software-Entwickler dabei, ihre Entwicklungszyklen zu verkürzen. Dabei liegt der Schwerpunkt auf der Funktionalität der Software und nicht auf den Funktionsmerkmalen, die dazu notwendig sind, genau das zu tun. Open-Source-Software zu verwenden, ist bei jeder Art von Software-Entwicklung inzwischen vollkommen üblich. Man kann ohne große Transferleistung annehmen, dass Cyberkriminelle bei der Entwicklung ihrer eigenen Software einen ähnlichen Weg gehen – also ebenfalls auf Open-Source-Software zurückgreifen. Möglicherweise nicht bei einer Malware selbst, sondern vielleicht in der Command-and-Control-Software oder bei der Benutzeroberfläche, wo das Dashboard des Malware-Angriffs sichtbar wird.

Was können Kriminelle mithilfe von KI erreichen, und welche Art von Schäden werden sie vermutlich dadurch verursachen?

Jeder erfolgreiche Angriff kann dem Opfer finanziellen oder persönlichen Schaden zufügen, unabhängig davon, ob es sich um ein Unternehmen oder eine Einzelperson handelt. Wenn ein Angreifer versucht, in ein Unternehmensnetzwerk einzudringen oder ein bestimmtes Gerät zu infizieren, muss er eine Reihe von Systemen überwinden, Social-Engineering-Techniken anwenden, Betriebssysteme oder Softwarefehler ausnutzen. Stellen Sie sich jetzt einen Computer vor, der mit der Summe dieses Wissens ausgestattet ist und über Kenntnisse in Penetrationstechniken, Funktionen zur Verhaltensanalyse und Verhaltensnachahmung verfügt. Rein theoretisch wäre ein solcher Rechner in der Lage, Angriffe deutlich schneller, koordinierter und effizienter auszuführen. Noch beunruhigender ist, dass er potenziell Hunderte oder vielleicht sogar Tausende von Zielen auf einmal angreifen könnte. Es besteht kein Anlass zu der Vermutung, dass so ein Konzept nicht skalierbar ist. Die Schäden, die ein „Supercomputer“ auf Basis gut funktionierender KI anrichten könnte, sind unvorstellbar.

Sind die ausgereiften Tools, die dazu nötig wären, im Dark Web verfügbar? Und wenn ja, wie leicht sind sie zu bekommen?

Ich bin sicher, dass im Dark Web alle möglichen Tools existieren. Ausreichend viele davon sind technisch bereits sehr weit ausgereift. Dieselbe Frage müsste man sich hinsichtlich KI-gestützter Tools stellen. Wie ausgereift sind sie zum aktuellen Zeitpunkt bereits? Nehmen wir wieder Malware als Beispiel. Malware-Code findet man mit Sicherheit im Dark Web, und auch hier ist ein Teil dieser Malware bereits ausgereift. Ein Beispiel aus der Praxis ist WannaCry. Hier wurde der Quellcode eines Tools von anderen übernommen und weiterentwickelt.

Was unternimmt die Cybersicherheitsbranche, um aufkommenden KI-gestützten Bedrohungen etwas entgegenzusetzen? Erwartet uns eine KI-gegen-KI-Zukunft?

Künstliche Intelligenz oder präziser gesprochen eine ihrer Untergruppen, das maschinelle Lernen, wird schon seit einer Weile von Cybersicherheitsanbietern genutzt. Maschinelles Lernen hilft dabei, Bedrohungen oder neue Malware-Stämme zu identifizieren, und das schneller und effizienter als ein menschlicher Experte. Das verschafft Sicherheitsforschern mehr Zeit, sich auf die Fälle zu konzentrieren, bei denen die KI noch schwankende Ergebnisse zeigt, Fehleinschätzungen trifft oder gänzlich versagt hat. Wird ein solches Problem nicht nur erkannt, sondern auch gelöst, werden die gewonnen Ergebnisse wieder in das KI-System eingespeist. Solche Systeme haben sich gerade in den letzten Jahren weiterentwickelt und sind deutlich ausgereifter als noch vor wenigen Jahren. Deshalb spielen sie bei der Bedrohungserkennung und Abwehr eine wichtige Rolle. Cyberkriminelle haben natürlich das Ziel, dass sich die von ihnen verwendete KI an die veränderte Situation durch eine ihrerseits KI-basierte Cyberabwehr anpasst und eine legitime Software oder ein harmloses Datenpaket überzeugend nachahmen kann. Solche Systeme führen böswillige Aktivitäten zudem schneller aus als ein menschlicher Hacker. Der Angreifer hat also wie der Sicherheitsexperte im Unternehmen mehr Zeit, sich auf die für ihn wichtigeren Bereiche zu konzentrieren. Eine KI-gegen-KI-Zukunft ist nicht nur möglich. Wir haben sogar schon erste Erfahrungen damit gemacht.

Firmen zu diesem Artikel
Verwandte Artikel