Vertrauen in KI aufbauen: Wie agentenbasierte KI den Sicherheitsdienst verändert
Cybersicherheitsexperten stehen vor einer unaufhörlichen Herausforderung: Bedrohungen entwickeln sich schnell weiter, aber die Abwehrmaßnahmen hinken oft hinterher. Während KI seit langem Effizienz und Schnelligkeit verspricht, sind herkömmliche deterministische Automatisierungen - selbst wenn sie von KI-Modellen unterstützt werden - unzureichend, da sie durch starre, regelbasierte Rahmenwerke eingeschränkt sind, die eine ständige menschliche Aufsicht erfordern. Agentische KI bietet einen neuen Weg nach vorn.
Indem sie autonome Entscheidungen trifft, Untersuchungen durchführt, ohne auf menschliche Aufforderungen zu warten, und kontinuierlich von ihrer Umgebung lernt, befähigt Agentic AI Sicherheitsteams, mit Maschinengeschwindigkeit zu arbeiten. Ihr Erfolg hängt jedoch von einem Schlüsselelement ab: Vertrauen. In diesem Blog gehen wir darauf ein, wie sich Agentic AI von herkömmlichen Modellen unterscheidet, welche transformativen Auswirkungen sie auf SecOps hat und warum der Aufbau von Vertrauen die Grundlage für ihre Einführung ist.
Was zeichnet agentenbasierte KI aus?
Deterministische Automatisierung folgt vorbestimmten Regeln - ”wenn dies, dann das”-Logik - selbst wenn wir traditionellere ML-Modelle oder -Ansätze (sogar LLM-basierte) verwenden, um einige der Aufgaben zu lösen. Ihre Fähigkeiten sind weitgehend reaktiv und auf den Umfang ihrer Trainingsdaten beschränkt.
KI-gestützte Systeme hingegen sollen die menschliche Entscheidungsfindung unterstützen und verbessern. Sie arbeiten mit Analysten zusammen, automatisieren bestimmte Aufgaben, bieten Einblicke oder empfehlen die nächsten Schritte. Sie sind jedoch nach wie vor von menschlichem Input und menschlicher Aufsicht abhängig - der letzte Anruf bleibt bei einem Menschen. Denken Sie an medizinische Diagnosetools, die Anomalien erkennen, Chatbots im Kundenservice, die Skripten folgen, oder Empfehlungsmaschinen im Einzelhandel.
Agentische KI hingegen macht einen bedeutenden Sprung in der Autonomie. Sie kann den Kontext wahrnehmen, Optionen bewerten, Entscheidungen treffen und eigenständig handeln. Diese Systeme verstehen komplexe Umgebungen, passen sich ihnen an und lernen aus Erfahrungen, um sich mit der Zeit zu verbessern. Im Bereich der Cybersicherheit bedeutet dies, dass die agentenbasierte KI die Ermittlungen vorantreiben, die zu verfolgenden Wege bestimmen und nur bei Bedarf menschliche Analysten hinzuziehen kann.
Dieser Wandel - von einer KI, die hilft, zu einer KI, die handelt - ist von grundlegender Bedeutung, um die Arbeitsweise von SecOps-Teams unter Druck zu verändern.
Der Ontinue-Unterschied: Hypothesengeleitete, von Analysten inspirierte KI
Ein Großteil der Sicherheitsbranche hält immer noch an der Vorstellung fest, dass die Aufgabe von KI darin besteht, riesige Datenmengen zu verarbeiten und auf magische Weise Bedrohungen zu erkennen. Diese Denkweise, die besagt, dass man einfach nur mit Daten um sich werfen muss, hat sich als ineffektiv erwiesen - selbst mit großen Sprachmodellen in der Mischung.
Ontinue verfolgt einen anderen Ansatz.
Anstatt zu versuchen, Ozeane von rohen Telemetriedaten zu durchforsten, folgt die Agentic AI von Ontinue einem hypothesengesteuerten Modell, das sich an der Denkweise erfahrener Analysten orientiert. Es beginnt mit dem Alarm - dem “Symptom” - und arbeitet rückwärts, fragt: Welche Verhaltensweisen, Prozesse oder Techniken könnten dies verursacht haben? Ähnlich wie ein Detektiv, der ein Verbrechen aufklärt, ermittelt die KI, indem sie den Problemraum eingrenzt, anstatt ihn zu erweitern.
Dies ermöglicht die Plattform von Ontinue:
- Arbeiten Sie effizient, indem Sie nur die wichtigsten Daten verarbeiten und nicht alle.
- Sie kommen schneller zu Schlussfolgerungen, indem Sie die kritischen Denkprozesse eines erfahrenen SOC-Analysten nachahmen.
- Behalten Sie die Präzision bei, reduzieren Sie Fehlalarme und sorgen Sie für sinnvolle Eskalationen.
Dies ist der Kernpunkt, wie Ontinue intelligentere, schnellere und vertrauenswürdigere Sicherheitsergebnisse liefert, indem es der KI beibringt, mit Absicht zu ermitteln.
Ein Drei-Säulen-Konzept für die Automatisierung
Bei der Automatisierungsstrategie von Ontinue handelt es sich nicht um eine Einheitslösung für den Einsatz von KI. Es handelt sich um ein vielschichtiges System, das sich auf drei Säulen stützt, von denen jede für ein ausgewogenes Verhältnis zwischen Vertrauen, Skalierung und Effizienz im Incident Management sorgt:
1. Deterministische Automatisierung
Dabei handelt es sich um vordefinierte Arbeitsabläufe für bekannte Vorfallstypen, die von den Ontinue-, SOC- und Automatisierungsteams entwickelt und geprüft wurden. Sie bieten hohe Zuverlässigkeit und Präzision und gewährleisten konsistente Ergebnisse für wiederholbare Szenarien. Der Kompromiss? Diese Workflows sind sehr spezifisch und müssen manuell entwickelt werden, was die Skalierbarkeit einschränken kann.
2. KI-unterstützte Analyse
Hier kommen Tools wie Ion IQ ins Spiel, die die Fähigkeiten von Analysten durch KI-generierte Erkenntnisse erweitern. Diese Systeme schätzen das Risikoniveau ein, erkennen kundenübergreifende Muster und decken Zusammenhänge auf, deren Erkennung sonst Stunden dauern würde. Diese Erkenntnisse sind zwar skalierbar, werden aber immer von menschlichen Analysten validiert, um die Qualität und Korrektheit sicherzustellen.
3. AI SOC Agenten
Dies ist die Grenze der Innovation von Ontinue: autonome Ermittler, die auf Daten aufbauen, die durch frühere Automatisierungsschichten angereichert wurden. Sie handeln selbstständig, um das “Warum” hinter den Alarmen zu erforschen, und folgen dabei hypothesengesteuerten Pfaden, ohne auf menschliche Eingaben zu warten. Diese Untersuchungen lassen sich schnell skalieren und bringen differenzierte Ergebnisse zutage - doch für kritische Entscheidungen ist immer noch ein Mensch zur Validierung und zum Handeln erforderlich.
Durch diese Art der Automatisierung auf mehreren Ebenen stellt Ontinue sicher, dass auch bei zunehmender Autonomie der Aufgaben die Zuverlässigkeit und der Überblick nicht verloren gehen.
Auswirkungen auf SecOps in der realen Welt
Im Bereich Security Operations (SecOps) beweist Agentic AI täglich ihren Wert. Hier erfahren Sie, wie der Ansatz von Ontinue das Spiel verändert:
- Von Analysten inspirierte Ermittlungen: Anstatt Daten passiv aufzunehmen, untersucht die agenturgestützte KI von Ontinue Warnmeldungen, indem sie Hypothesen aufstellt und testet - so, wie ein menschlicher Analyst die Ursache diagnostizieren würde. Dies führt zu weniger Fehlalarmen und einer deutlich schnelleren Lösung.
- Adaptive Verteidigung: Cyber-Kriminelle entwickeln sich schnell weiter. Die Agenten-KI von Ontinue entwickelt sich ebenso schnell weiter - sie lernt aus neuen Angriffstechniken, Verhaltensmustern und dem Feedback von Analysten, um ihr Denken mit der Zeit zu verbessern.
- Operative Effizienz: Durch die autonome Durchführung von Untersuchungen und Entscheidungsfindungen nimmt die KI Routine- und sich wiederholende Arbeiten ab, wodurch die Ermüdung der Mitarbeiter verringert wird und sie mehr Zeit für strategische, hochwirksame Aufgaben haben.
- Kontextabhängige Eskalation: Anstatt alles zu eskalieren, was verdächtig aussieht, berücksichtigt die agentenbasierte KI von Ontinue den Kontext und die Vertrauenswürdigkeit ihrer Ergebnisse und alarmiert die Analysten nur dann, wenn eine eingehendere Prüfung gerechtfertigt ist.
Vertrauen in KI aufbauen
Trotz der vielversprechenden Möglichkeiten hängt die Einführung von KI im Bereich der Cybersicherheit vom Vertrauen ab. SecOps-Verantwortliche werden sich nicht auf Automatisierung verlassen, die sie nicht verstehen - oder nicht erklären können. Deshalb müssen Transparenz, Ethik und Zusammenarbeit von Anfang an in Agentic AI integriert werden.
- Transparenz bei der Entscheidungsfindung Die Gewährleistung von Transparenz in den KI-Entscheidungsprozessen ist eine wesentliche Voraussetzung für den Aufbau von Vertrauen. Die Nutzer müssen verstehen, wie KI-Systeme zu ihren Entscheidungen kommen und welche Faktoren diese Entscheidungen beeinflussen. Diese Transparenz trägt dazu bei, Missbrauch zu verhindern und das Vertrauen in die KI-Technologie zu stärken.
- Ethische Leitlinien und Rahmenwerke Die Entwickler von agentenbasierter KI müssen der Schaffung ethischer Leitlinien und Rahmenwerke, die einen verantwortungsvollen Einsatz von KI fördern, Priorität einräumen. Diese Richtlinien sollten sich mit Themen wie Datenschutz, Voreingenommenheit und Verantwortlichkeit befassen und sicherstellen, dass KI-Systeme fair und ethisch korrekt arbeiten.
- Kontinuierliche Überwachung und Bewertung Regelmäßige Überwachung und Bewertung von KI-Systemen sind notwendig, um ihre fortlaufende Wirksamkeit und die Einhaltung ethischer Grundsätze zu gewährleisten. Dazu gehört auch die Bewertung der Auswirkungen von KI auf die verschiedenen Interessengruppen und die Vornahme notwendiger Anpassungen, um etwaige Bedenken auszuräumen.
- Zusammenarbeit und Bildung Der Aufbau von Vertrauen in KI erfordert die Zusammenarbeit zwischen Entwicklern, politischen Entscheidungsträgern und Endnutzern. Die Aufklärung der Beteiligten über die Möglichkeiten und Grenzen der KI-Technologie ist eine wesentliche Voraussetzung für die Förderung einer sachkundigen und verantwortungsvollen Nutzung.
Die Zukunft der agentenbasierten KI in SecOps
Agentische KI ist bereit, die Zukunft der Sicherheitsoperationen neu zu gestalten. Anders als herkömmliche KI-gestützte Systeme ist sie in der Lage, selbstständig zu denken, sich anzupassen und zu handeln. Damit wird sie zu einer transformativen Kraft im Kampf gegen immer komplexere Cyber-Bedrohungen. Durch die Kombination aus kontextbezogenem Bewusstsein, autonomer Entscheidungsfindung und kontinuierlichem Lernen ermöglicht Agentic AI den SecOps-Teams, schneller zu reagieren, tiefere Untersuchungen durchzuführen und die Abhängigkeit von manuellen Eingriffen zu verringern - ohne Abstriche bei der Präzision oder dem Vertrauen.
Die zunehmende Integration von KI in Sicherheitsabläufe bietet die Möglichkeit, nicht nur Abläufe zu rationalisieren, sondern auch die allgemeine Sicherheitslage von Unternehmen zu verbessern. Die Ausschöpfung dieses Potenzials erfordert einen durchdachten Ansatz: einen Ansatz, der verantwortungsvollen Innovationen Vorrang einräumt, ethische Grenzen wahrt und die menschliche Kontrolle beibehält. Die Zukunft der Cybersicherheit wird nicht menschlich sein oder AI - es wird menschlich sein mit KI und agentenbasierte KI sind die Brücke, die uns dorthin bringt.
Lesen Sie unseren neuesten Blog in unserer AI-Serie: Was macht agenturische KI wirklich agenturisch?


