Blog

Der Stand der KI in der Cybersicherheit

Zwei Fachleute diskutieren vor einem großen digitalen Display über Informationen, umgeben von mehreren Monitoren, auf denen Datenanalysen in einem modernen Kontrollraum angezeigt werden.

Seit Jahren werden Cyberbedrohungen durch künstliche Intelligenz (KI) aufgedeckt - wobei maschinelles Lernen die wichtigste Technik zur Umsetzung künstlicher Intelligenz ist. Die meisten Sicherheitsanbieter, von kleinen Start-ups bis hin zu großen Unternehmen, nutzen KI in ihren Produkten, um bösartige Aktivitäten zu erkennen.

KI liefert einen Mehrwert, indem sie bösartige Dateien, E-Mails oder Websites findet oder ungewöhnliches Benutzer- oder Systemverhalten erkennt. Microsoft setzt KI in seinem Defender, Sentinel und anderen Sicherheitstools umfassend ein, um Angriffe erfolgreich zu erkennen.

Doch während die Erfolgsgeschichten zahlreich sind und KI im öffentlichen Bewusstsein eine kritische Masse erreicht zu haben scheint, gibt es auch Beispiele, in denen KI die Versprechen und hochgesteckten Erwartungen nicht erfüllt hat. KI-Systeme stehen oft in dem Ruf, eine übermäßige Anzahl von Fehlalarmen zu erzeugen, und die Blackbox-Natur vieler KI-Systeme ruft bei vielen Experten Bedenken hervor. Angesichts übertriebener Erwartungen, die sich in der Realität nicht bewahrheitet haben, sind viele Sicherheitsexperten skeptisch gegenüber KI im Bereich der Cybersicherheit.

Doch die jüngsten Entwicklungen, die vor allem durch den Hype um ChatGPT ausgelöst wurden, haben KI in den Mittelpunkt des Interesses gerückt. Und so fragen sich viele, wie diese neuen Technologien in der Cybersicherheit zum Einsatz kommen werden. Werden die Visionen und Prototypen von vollautomatischen, intelligenten Sicherheitssystemen dieses Mal Wirklichkeit? Wird KI der Schlüssel sein, um Cyberkriminelle aus dem Geschäft zu drängen? Oder wird sie eine dunklere Wendung nehmen und sich für die Angreifer als wertvoller erweisen als für die Verteidiger?

Mit diesen Fragen im Hinterkopf diskutieren wir drei spannende Themen rund um KI in der Cybersicherheit:

  • Die Auswirkungen von generativer KI wie GPT auf Sicherheitsmaßnahmen
  • Innovative Anwendungsfälle, die über die Erkennung von bösartigen Aktivitäten hinausgehen
  • Die unvermeidliche Aussicht, dass Angreifer KI einsetzen

Generative KI: Was hat sich mit dem Aufkommen der GPT geändert?

Mit der Einführung von ChatGPT hatte die KI ihren “iPhone-Moment”. GPT steht für “generative pre-trained transformer”, und seine Fähigkeit, nicht nur Text zu produzieren, sondern auch Gedankenketten und scheinbar menschenähnliche Überlegungen zu einem Thema anzustellen, war eine augenöffnende Erkenntnis. Diese Erkenntnis hat neue Hoffnungen auf das Potenzial der Technologie geweckt - aber auch Ängste vor neuen Risiken. Nicht zuletzt im Bereich der Sicherheit.

Große Sprachmodelle (LLMs) als Kraftmultiplikatoren

Zu diesem Zweck hat Microsoft eine private Vorschau des Security Copilot angekündigt, der GPT mit Sicherheitstools wie Defender, Sentinel, InTune und anderen verbindet. Andere Anbieter wie Google und CrowdStrike ziehen schnell nach. Das Versprechen solcher “Copilot”- und Assistenten-Tools besteht darin, die menschlichen Sicherheitsanalysten zu unterstützen, indem ihnen eine natürlichsprachliche Schnittstelle zu den Daten zur Verfügung gestellt wird, die sie benötigen, um bei der Bedrohungssuche, der Untersuchung von Vorfällen, der Malware-Analyse und anderen Sicherheitsaktivitäten effizienter zu sein.

Während sie derzeit vor allem als Multiplikatoren für menschliche Analysten wertvoll sind, inspirieren die Denk- und Planungsfähigkeiten von großen Sprachmodellen (LLMs) Szenarien, die einen Schritt weiter gehen und den Menschen vollständig von diesen Aufgaben befreien: Sie positionieren das LLM als automatisierten Sicherheitsanalysten. Auch wenn solche Anwendungsfälle in der Zukunft möglich sein werden, muss beim derzeitigen Stand der Technik der Mensch auf dem Fahrersitz verbleiben und die letzte Entscheidung über wichtige Sicherheitsentscheidungen treffen.

Generierung von Trainingsdaten für Detektionssysteme

Neben der Unterstützung menschlicher Sicherheitsanalysten werden wir bald auch andere Anwendungen generativer KI sehen. So können LLMs beispielsweise künstliche Phishing-Angriffe generieren, um Phishing-Detektoren besser zu trainieren oder für Awareness-Schulungen zu verwenden. In ähnlicher Weise können die Codegenerierungsfähigkeiten von LLMs zur Generierung von Malware-Varianten genutzt werden, um die Malware-Erkennung besser zu trainieren. Die Erstellung künstlicher Netzwerkdaten für Network Detection and Response (NDR) oder Anomalie-Detektoren, künstliches Nutzerverhalten für User and Entity Behavioral Analytics (UEBA) Systeme - die Möglichkeiten sind nahezu endlos.

Verbesserung der Kommunikation

Eine andere Klasse von Anwendungen wird sich auf die Kommunikation zwischen Sicherheitsmitarbeitern und mit Kunden und anderen Beteiligten konzentrieren. Die Fähigkeit, schnell Berichte zu erstellen, komplexe Ereignisse prägnant zusammenzufassen und sogar Folien zu erstellen, um sie der Geschäftsleitung zu präsentieren, wird Sicherheitsexperten dabei helfen, effizient und effektiv zu kommunizieren.

Dies sind nur einige Beispiele für das immense Potenzial der generativen KI im Bereich der Cybersicherheit. Bei all dem Hype um das Thema ist es jedoch wichtig, zwei wichtige Punkte im Auge zu behalten:

Das LLM muss mit kontextbezogenen Daten über die spezifische Umgebung verknüpft werden.

Um die für LLMs typischen Konfabulationen und Halluzinationen abzumildern (bei denen das LLM eine Antwort ohne jegliche Grundlage erzeugt), muss der Mensch auf dem Fahrersitz bleiben - wobei die KI als Kraftmultiplikator fungiert.

Schlussfolgerung

Auch wenn der Hype um die künstliche Intelligenz manchmal nicht ganz so groß war, hat sie doch die Art und Weise verändert, wie die Cybersicherheit auf Bedrohungen reagieren und Daten schützen kann. Wir befinden uns jedoch an einem Wendepunkt, und die bestehenden Anwendungsfälle sind nur die Spitze des Eisbergs.

Im zweiten Teil dieser zweiteiligen Serie werden wir neue und aufregende Möglichkeiten erkunden, die KI kann über die Erkennung von Bedrohungen hinausgehen um Umgebungen proaktiv zu härten und den Schutz zu optimieren.

Teilen

Artikel von

Theus Hossmann

Technischer Direktor

Theus Hossmann ist Chief Technology Officer bei Ontinue. Er ist für alle Bereiche rund um Daten, Datenwissenschaft und KI verantwortlich und leitet das Team von erfahrenen Datenwissenschaftlern und Dateningenieuren bei Ontinue. Theus hat Dutzende von Artikeln über angewandte KI und maschinelles Lernen für renommierte Konferenzen und Fachzeitschriften wie ACM und IEEE veröffentlicht. Theus promovierte in angewandtem maschinellem Lernen an der ETH Zürich in der Schweiz.

Schlüsselwörter