Wie Unternehmen Observability und Sicherheit neu denken müssen

Unternehmensnetzwerke werden seit Jahren immer komplexer, doch was wir heute erleben, ist auf keine Weise vergleichbar. Der rasante Aufstieg der künstlichen Intelligenz, insbesondere der Übergang hin zur agentischen KI, führt zu einer völlig neuen Schicht architektonischer Komplexität. Es geht nicht einfach um mehr Systeme, mehr Daten oder mehr Cloud. Es handelt sich um eine fundamentale Veränderung. Sie ist vergleichbar mit dem Umbruch, den Netzwerkteams beim Übergang in die Cloud erlebt haben.

Wie schon Cloud-Computing und Containerisierung die Spielregeln für Performance-Monitoring und Sicherheit verändert haben, wird auch die Verbreitung von KI-Agenten unsere Fähigkeit herausfordern, zu sehen und zu verstehen, was tatsächlich in unseren Netzwerken geschieht.

 

Eine neue Dimension der Netzwerkkomplexität

Diese Entwicklung ist längst Realität: Intelligente Agenten, aufgebaut auf generativen KI-Modellen sind in der Lage, autonom zu handeln und automatisieren zunehmend – von der Reisebuchung bis zur medizinischen Diagnostik. Bald werden sie ebenso selbstverständlich sein wie Cloud-Workloads. Häufig bestehen sie aus zahlreichen Microservices, verteilt über verschiedene Umgebungen, verbunden über APIs und gesteuert durch Echtzeitdaten. Ihr Verhalten ist probabilistisch statt deterministisch, wodurch sie eigenständig interpretieren und entscheiden.

Diese Arbeitsweise mit verschlüsselten Verbindungen, kurzlebigen Recheninstanzen und autonomer Logik erschwert es erheblich, nachzuvollziehen, wie Entscheidungen entstehen oder wo Fehler auftreten. Dieses fehlende Maß an Transparenz ist nicht nur ein technisches Problem. Es ist ein wachsendes operatives Risiko, insbesondere für Unternehmen, die auf Performance und Verfügbarkeit angewiesen sind. Dazu zählen Unternehmen im Finanzwesen, im Gesundheitssektor oder in der Logistik.

 

Neue Architektur für eine neue KI-Realität

Der Aufstieg von KI-Agenten wird durch eine neue Art von Unternehmensarchitektur, dem Automation-Stack, ermöglicht. Er ist von Grund auf neu aufgebaut: An der Basis stehen spezialisierte Chips und GPUs für KI-Workloads, darüber liegt eine Schicht aus Cloud-Infrastruktur und containerisierten Umgebungen. Darauf folgen die großen Sprachmodelle (Large-Language-Models) und an der Spitze schließlich die Agenten selbst, die jeweils für spezifische Verticals entwickelt werden.

Diese Schichtenarchitektur ermöglicht ein Maß an Automatisierung und Intelligenz, das zuvor undenkbar war. Gleichzeitig entstehen jedoch neue Abhängigkeiten zwischen Systemen, die schwerer denn je zu überwachen sind. Unternehmen müssen verstehen, wie diese Komponenten über die gesamte Kette hinweg miteinander interagieren. Während ein Netzwerkdienst und andere Komponenten einwandfrei laufen, kann die Kommunikation dazwischen dennoch gestört sein. Das Ergebnis: Eine schlechte Nutzererfahrung trotz „gesunder“ Systeme.

 

Warum klassische Observability versagt

KI-Agenten interagieren bereits heute mit Unternehmensnetzwerken über verschlüsselte, kurzlebige und maschinell generierte Datenströme. Dadurch werden Verkehrsmuster mit herkömmlichen Tools immer schwieriger zu analysieren. Je dynamischer diese Systeme werden, die über Multi-Cloud-Umgebungen, Edge-Computing-Knoten und 5G-Verbindungen verteilt sind, desto mehr verlieren Organisationen den Überblick darüber, was in ihren Netzwerken geschieht.

Moderne Observability muss daher zwei Perspektiven vereinen:

  • Outside-In Observability misst Systemverhalten aus Sicht des Nutzers – etwa durch synthetische Tests, Journey-Tracking oder Application-Monitoring.
  • Inside-Out Observability betrachtet die Infrastruktur und analysiert Telemetriedaten, Datenflüsse und paketbasierte Informationen, um Abhängigkeiten und Fehlerquellen zu identifizieren.

Erst die Kombination beider Ansätze ermöglicht ein durchgängiges Verständnis von Performance und Stabilität.

 

AIOps allein reicht nicht

Parallel dazu kämpfen IT-Teams mit wachsender technischer Verschuldung (Technical Debt). Laut Forresters Technology & Security Predictions 2025 geben mehr als die Hälfte der Technologie-Entscheidungsträger an, dass ihre technischen Schulden ein mittleres bis hohes Niveau erreicht haben – bis 2026 wird dieser Anteil auf 75 % steigen.

Um diese Komplexität zu bewältigen, werden Unternehmen ihre AIOps-Nutzung verdreifachen. AIOps-Plattformen liefern kontextbezogene Daten, automatisieren Störungsbehebungen und verbessern Entscheidungen. Doch auch hier gilt: Nur wer die richtigen Daten-, Sicherheits- und Architekturgrundlagen schafft, kann die erwarteten Effizienzgewinne realisieren.

Automatisierung ist bei dieser Größenordnung unverzichtbar, doch Automatisierung ohne Beobachtbarkeit ist gefährlich. Ohne geeignete Werkzeuge, um den Datenverkehr zu inspizieren und den Zustand der Systeme zu verstehen, treffen Unternehmen kritische Entscheidungen praktisch blind.

 

Wenn Blind-Spots zum Geschäftsrisiko werden

Digitale Dienste bilden heute das Rückgrat globaler Abläufe. Fehlende Observability kann Handelsgeschäfte, Diagnosen oder Lieferketten gefährden und Vertrauen kosten.

Besonders in KI-getriebenen Umgebungen gewinnen paketbasierte Daten neue Bedeutung. Sie bilden die Grundlage für vollständige Beobachtbarkeit, da sie detaillierte Transaktionsdaten enthalten, etwa Zeitstempel, Protokollverhalten und Fehlermuster. Anders als Metriken oder Logs, die nur aggregierte Ereignisse abbilden, zeigen Pakete genau, was gesendet wurde, wann es geschah und wie Systeme reagiert haben – über die gesamte IT-Architektur hinweg.

Wenn diese Paketdaten zu konsistenten Metadaten angereichert werden, entsteht eine überprüfbare „Source of Truth“, die Analysegenauigkeit, Stabilität und Reaktionsgeschwindigkeit erhöht.

Klassische Observability-Plattformen, die für statische Systeme konzipiert wurden, reichen dafür nicht mehr aus. Gefragt sind Lösungen, die verschlüsselte, verteilte und Echtzeit-Umgebungen verstehen, um tiefere Einblicke und schnellere Entscheidungen zu ermöglichen.

 

Der Weg zu echter Resilienz – Visibility trifft auf Sicherheit

Was früher getrennte Systeme und Workflows mit eigenen Tools waren, wächst heute zusammen: accund Sicherheit. Diese Verschmelzung ist der Schlüssel zu echter Resilienz. Diese Systeme sind in der Lage, Fehler oder Angriffe zu erkennen und den Schutz anzupassen.

In der neuen Ära von agentischer KI hängt die Widerstandsfähigkeit eines Unternehmens davon ab, wie gut es Beobachtbarkeit und Sicherheitslösungen miteinander vereint. Der Wandel hin zur agentischen KI ist zugleich die größte Chance für Automatisierung und das größte operative Risiko seit der Cloud-Revolution.

Unternehmen, die heute in Resilienz durch kombinierte Sichtbarkeit und Sicherheit investieren, werden ihre Wettbewerbsposition nachhaltig stärken. Wer abwartet, riskiert, Transparenz später mühsam in ein verschlüsseltes Netz autonomer KI-Agenten integrieren zu müssen und aus einem Vorsprung ein teures Nachrüstprojekt zu machen.

Von Christian Syrbe, Chief Solutions Architect bei Netscout