Identitätsmanagement mit KI-Agenten sollte ein Schulterschluss von Mensch und Maschine sein

Identitätsmanagement ist das Rückgrat moderner Zero-Trust-Strategien. In großen, dynamischen Organisationen geraten manuelle Zugriffsprüfungen aber schnell an ihre Grenzen: Routine erzeugt Müdigkeit, lange und chaotische Listen überfordern die Aufmerksamkeit, Fehlentscheidungen schleichen sich ein. Ein pragmatisches Mittel, um Wirksamkeit und Tempo bei der Zugriffskontrolle zu erhöhen, sind teil-autonome KI-Agenten. Allerdings sollte künstliche Intelligenz (KI), wie in allen anderen Anwendungsbereichen auch, kein Selbstzweck sein, sondern ein Werkzeug, das nur unter Gewährleistung von Transparenz und menschlicher Entscheidungsverantwortung eingesetzt wird.

Belastbarkeit als Schlüsselkomponente

Richtig eingesetzt sind die Vorteile teil-autonomer KI-Agenten zahlreich: Sie erkennen Muster in komplexen Berechtigungslandschaften, sortieren Kontexte zu Clustern (beispielsweise nach Kritikalität, Grad der Privilegierung oder Nutzungsart) und priorisieren Risiken für Reviews. Besonders für die Rezertifizierung liefern sie greifbare Fakten: Kampagnen lassen sich dynamisch nach Auffälligkeit ordnen und unterschiedliche Review-Modelle sinnvoll kombinieren. Beim Rollen-Management schlagen Agenten die Rollen vor und liefern Begründungen. Entscheidungen bleiben dabei an die Geschäftslogik und SoD-Prüfungen gebunden (Segregation of Duties). Zudem können Agenten bei definierten Schwellen ad-hoc-Rezertifizierungen anstoßen – mit Regeln, Logging und einer jederzeit verfügbaren Notbremse.

Teil-Autonomie in der Praxis

Teil-autonom heißt im IGA-Kontext: Maschinen bereiten vor, Menschen entscheiden oder greifen ein. Der EU-AI-Act und das NIST-AI-Risk-Management-Framework verlangen genau diese menschliche Aufsicht, Erklärbarkeit und Nachvollziehbarkeit. Berichte dürfen nicht zur Black-Box werden: Filter, Datenbasis und Schwellenwerte müssen versioniert und wiederholbar sein. Berichtsanforderungen können dabei in natürlicher Sprache formuliert werden. Die daraus abgeleitete Filterlogik bleibt nachvollziehbar dokumentiert und für den Audit geeignet. Die oben genannten Regelwerke liefern hierfür Vokabular und Maßstäbe, ohne den operativen Spielraum unnötig einzuengen.

Für CISOs lassen sich daraus folgende Empfehlungen zur Implementierung ableiten:

Rollenempfehlungen nur mit fachlicher Begründung und SoD-Check: Muster aus Berechtigungen sind der Startpunkt, nicht die Entscheidung. Wo sinnvoll, sollten Attribut-Kontrollen (ABAC) klassische Rollenmodelle ergänzen.

Prüfbare Reports statt Intransparenz: Filterlogik, Datenherkunft und Modelle dokumentieren; Evidenzen vorhalten, damit Audits belastbar sind. Abfragen in natürlicher Sprache sind zulässig, solange die Ableitung der Auswertungen transparent bleibt.

Natürliche Sprache erleichtert, ersetzt aber keine Freigabe: Assistenten formulieren verständlich, die Genehmigung bleibt aber menschlich – insbesondere bei privilegierten Rechten.

Risikobasierte, ereignisgetriebene Rezertifizierung: Statt alle Berechtigungen in starrer Abfolge durchzugehen, rücken jene nach vorn, die mehr Schaden anrichten könnten oder ungewöhnlich wirken. Auffällige und kritische Zugriffe müssen priorisiert werden. Einschneidende Ereignisse, wie Job-Wechsel, Inaktivität oder Policy-Verstöße, dienen als Auslöser für gezielte Rezertifizierungen.

Teil-Autonomie nur mit Leitplanken: Klare Policies, lückenlose Protokollierung, definierte Verantwortlichkeiten und ein Kill-Switch sind zwingend erforderlich.

Härtung von LLM-/Agenten-Komponenten: Schutz vor Prompt-Injection, Datenabfluss und riskantem Tool-Use durch Input-Validierung, strikt begrenzte Berechtigungen und Sandboxing.

Verankerung im Management-System. Rollen, Trainings, Risiko-Reviews und Korrekturmaßnahmen sollten systematisch etabliert werden. IGA- und KI-Kontrollen werden am besten in ISO-gestützte Managementsysteme integriert, um Anschlussfähigkeit zu sichern.

KI-Agenten sind pragmatisch, doch Menschen sind unersetzlich

KI-Agenten reduzieren das Hintergrundrauschen, heben relevante Fälle hervor, erkennen Anomalien früher und halten wiederkehrende Aufgaben, wie den Entzug ungenutzter Zugriffsrechte, zuverlässig am Laufen. Im Gegensatz zu Menschen im Schichtbetrieb ermüden Agenten nicht und halten die Überwachung kontinuierlich aufrecht. Trotzdem bleiben Menschen unersetzlich für moralische Entscheidungen, Ausnahmen, Kontextabwägungen und die rechtliche Verantwortung. Modell-Drift und Verzerrungen sind zwar mit Tests, Monitoring und Aufsicht beherrschbar, dürfen aber nie ignoriert werden.

Teil-Automatisierung ist der pragmatische Weg, insbesondere bei unvollständigen Identitätsdaten und strengen Prüfanforderungen. Daher gilt: automatisieren, wo Regeln klar und Risiken kalkulierbar sind; Empfehlungen statt Entscheidungen, wo Kontext dominiert. Technische Bausteine, die sich bewährt haben, sind: robuste Daten-Lineage, Versionierung von Features und Policies, ABAC-Erweiterungen zu RBAC, Telemetrie und Drift-Monitoring sowie Least-Privilege inklusive Just-in-Time-Zugriff.

Fazit

Thomas Müller-Martin, Field Strategist DACH bei Omada

Teil-autonome KI-Agenten erhöhen die Effizienz und Sicherheit von IGA – sofern sie als Assistenz- und Beschleunigungstechnologie verstanden werden, nicht als Ersatz für Governance oder gar den Menschen selbst. Die praxisbewährte Formel lautet: risikobasiert priorisieren, sichtbar automatisieren, menschlich verantworten und letztlich prüfbar dokumentieren. Besonders in der IGA ist es wichtig, der revolutionären Technologie nicht blind zu vertrauen. Wer die genannten Sicherheitsratschläge beherzigt, sorgt dafür, dass KI-Agenten fachlich tragfähig, regulatorisch anschlussfähig und operativ wirksam sind.

Von Thomas Müller-Martin, Field Strategist DACH bei Omada