KI-Agenten erobern die Arbeitswelt, doch der Hype birgt auch Gefahren. Während Unternehmen weltweit auf diese Technologie setzen, zeigt sich: Schnelligkeit geht oft zu Lasten der Sicherheit. Nach einer aktuellen IBM-Studie sehen Unternehmen KI-Agenten nicht länger als Experiment, sondern als unverzichtbaren Bestandteil ihrer digitalen Transformation. Führungskräfte erwarten bis 2025 einen achtfachen Anstieg von KI-gestützten Arbeitsabläufen. Sie versprechen sich davon eine höhere Prozesseffizienz, sinkende Kosten und veränderte Workflows. Bereits 69 Prozent der Führungskräfte sehen in der verbesserten Entscheidungsfindung den größten Nutzen von KI-Agenten.
Doch ihre wachsende Bedeutung geht mit erheblichen Risiken einher. Eine Analyse von Palo Alto Networks zeigt, dass drei von vier laufenden agentenbasierten KI-Projekten erhebliche Sicherheitsprobleme bergen. Der Grund liegt weniger im Code, sondern in fehlender Governance. In über 3.000 Gesprächen mit europäischen Führungskräften wurde deutlich, dass viele Projekte ohne klare Zieldefinitionen, verbindliche Kontrollmechanismen oder abgestimmte Sicherheitsrichtlinien gestartet werden. Doch welche Risiken stehen im Zentrum? Und wie können Unternehmen ihnen begegnen?
Palo Alto Networks gibt einen Überblick:
1. Fehlende Zieldefinition: Wenn Projekte ins Leere laufen
Viele Unternehmen beginnen ihre agentenbasierten KI-Initiativen mit der Technologie, nicht mit den Zielen. Projekte starten, ohne zuvor messbare Geschäftsziele oder Risikogrenzen festzulegen. Dieser „Outcome Drift“ führt zu Abweichungen, unklaren Verantwortlichkeiten und steigenden Budgets, während der Mehrwert ausbleibt. Laut Gartner drohen bis 2027 etwa 40 Prozent der Projekte abgebrochen zu werden, weil keine klaren Zielsetzungen vorhanden sind.
Der Ansatz muss sein, Projekte rückwärts zu denken. Nur wenn Unternehmen zu Beginn zwei bis drei konkrete, vom Vorstand genehmigte Ziele festlegen, lassen sich Investitionen steuern und Risiken begrenzen. Ausgehend von gewünschten Ergebnissen und Benchmarks wird die Architektur von KI-Agenten so entwickelt, dass jede Handlung einer autorisierten Identität mit dokumentiertem Zweck zugeordnet werden kann. Dadurch entstehen weniger blinde Flecken und Projekte bleiben steuerbar.
2. Zu weit gefasste Berechtigungen: Wenn Agenten mehr dürfen, als sie sollten
Ein häufiges Problem in der Praxis ist die Vergabe übermäßiger Zugriffsrechte. Agenten erhalten volle Systemrechte oder unzureichend überwachte Berechtigungen. Das ist vergleichbar damit, einem Praktikanten uneingeschränkten Zugang zu allen Unternehmenssystemen zu geben – es erhöht das Risiko unnötig und entspricht nicht dessen Aufgabenfeld. Dieses Vorgehen öffnet Angreifern Tür und Tor.
Abhilfe schaffen Leitplanken, die von Beginn an in die Planung und das Design eingebaut werden. Jede Handlung muss klar autorisiert, nachvollziehbar und im Zweifel durch einen Menschen überprüft werden.
Dazu zählen Zero-Trust-Prinzipien, Identitäts- und Privilegientrennung sowie Kontrollen von untergeordneten Agenten. Kurzlebige Zugangsdaten, mehrstufige Authentifizierung und eine strikte Trennung von Berechtigungen verhindern Kontrollverlust. Ebenso zum Fundament gehören dabei Aktionsprotokolle und kontinuierliche Überwachung. Grundsätzlich gilt: Unternehmen sollten Agenten wie eigenständige Identitäten behandeln. So wird blindes Vertrauen durch sorgfältige Kontrolle ergänzt.
3. Governance-Lücken: Wenn wichtige Akteure außen vor bleiben
Das dritte Risiko ist fehlende Governance. Noch immer betrachten viele Unternehmen agentenbasierte KI als isoliertes IT-Projekt. Bereiche wie Recht, Betrieb, Compliance oder Risikomanagement werden erst spät einbezogen – oder gar nicht. So entstehen Schattenprojekte, Verantwortlichkeiten bleiben unklar und die Sicherheit gerät ins Hintertreffen.
Palo Alto Networks empfiehlt daher die Einrichtung eines „Governance Council“. Dieses funktionsübergreifende Gremium soll klare Entscheidungsrechte besitzen, regelmäßig an den Vorstand berichten und verbindliche Standards setzen. Governance wird so zur Grundlage, die Projekte widerstandsfähig, regelkonform und strategisch abgestimmt macht. Unternehmen, die frühzeitig alle relevanten Akteure einbinden und diese Strukturen fest im Board verankern, schaffen damit nicht nur Sicherheit, sondern auch die Basis für eine langfristig erfolgreiche Implementierung von KI-Agenten.
Best Practices:
Um agentenbasierte KI-Projekte sicher aufzusetzen, sollten Unternehmen bereits im nächsten Quartal folgende Maßnahmen prüfen:
Governance:
- Ein „Agentic Governance Council“ einrichten und Verantwortlichkeiten klar festlegen
- Ein zentrales Register führen, das alle Agenten, Datenzugriffe und Verantwortliche dokumentiert
- Vor dem Go-live realistische Szenarien und Stresstests („Premortems“) durchführen
Zieldefinitionen
- Pro Anwendungsfall messbare Ziele definieren und Risiken mit Grenzwerten versehen
- Kritische, irreversible Entscheidungen grundsätzlich einem Menschen vorbehalten
- Jede Aktion einer autorisierten Identität mit klar dokumentiertem Zweck zuordnen
Schutzmechanismen
- Sichtbarkeit und Kontrolle bei KI-Applikationen
- Identitäten von Menschen, Systemen und Agenten unter einer einheitlichen Sicherheitsrichtlinie verwalten
- Zugriffsrechte strikt nach dem Prinzip „Least Privilege“ vergeben und regelmäßig erneuern
- Ein kontinuierliches Monitoring etablieren und Menschen in kritische Freigaben einbinden
Ohne klare Zieldefinition, Berechtigungsgrenzen, Leitplanken und automatisierte Kontrollmechanismen drohen bestehende Schwachstellen in Netzwerk-, Cloud- und SaaS-Umgebungen noch verstärkt zu werden. „Die Ergebnisse machen deutlich, dass es bei KI-Agenten nicht um reine Technik geht, sondern um die richtigen Rahmenbedingungen“, so Thomas Maxeiner, Director Technical Solutions bei Palo Alto Networks. „Von Anfang an müssen Governance, klare Zielsetzungen und sichere Identitätskontrollen mitgedacht werden. Nur so lassen sich Innovation und Sicherheit in Einklang bringen.“












