Wenn mitten in der Nacht ein kritisches System ausfällt, kann jede Minute Ausfallzeit Tausende, manchmal sogar Millionen kosten. Und trotz massiver Investitionen in Observability und Automatisierung verschwenden Teams immer noch wertvolle Zeit damit, nach bereits existierenden Antworten zu suchen, die aber in Dokumentationen vergraben, über Wissensdatenbanken verstreut oder in den Köpfen erfahrener Fachleute verschlossen sind.
Die Lösung sind nicht mehr Tools, sondern intelligentere Tools. In diesem Quartal liefert BMC Lösungen, die KI, Observability und Automatisierung dort einsetzen, wo die Teams bereits arbeiten. Dieser einheitliche Ansatz verändert grundlegend die Art und Weise, wie Teams Probleme lösen und Komplexität bewältigen.
Einheitliche Transparenz in hybriden Umgebungen
Aus geschäftlicher Sicht ist die Unterscheidung zwischen Mainframe- und verteilten Systemen irrelevant. Kunden erleben Dienstleistungen, nicht Infrastruktur. Auf operativer Ebene bleiben diese Umgebungen jedoch isoliert, jeweils mit ihren eigenen Tools und Metriken.
Wenn ein Anstieg der Mainframe-Transaktionen um 2 Uhr morgens mit einem Timeout des Microservices korreliert ist, sollte diese Verbindung sofort sichtbar sein. Stattdessen verschwenden Teams wertvolle Minuten damit, zwischen separaten Dashboards zu wechseln und manuell Beziehungen zu rekonstruieren, die automatisch hergestellt werden sollten.
Echte Observability erfordert die Aufhebung künstlicher Plattformgrenzen. BMC AMI Ops löst dieses Problem durch OpenTelemetry-Integration und Observability-Unterstützung, indem z/OS-Metriken direkt in Plattformen wie Elastic, Splunk, Grafana und Datadog gestreamt werden. Ein Mainframe-Spike und eine Microservice-Regression werden nun gemeinsam in einer einheitlichen Ansicht angezeigt, da die KI die Beziehung automatisch korreliert.

Spezialisierte Mainframe-Systeme bleiben unverzichtbar, bieten nun jedoch dieselbe operative Transparenz wie verteilte Systeme – was eine schnellere Behebung von Vorfällen und fundiertere Entscheidungen in hybriden Umgebungen ermöglicht.
Die Wissenslücke im Mainframe-Bereich schließen
Eine 55-jährige COBOL-Entwicklerin geht in den Ruhestand und nimmt 30 Jahre institutionelles Wissen mit sich – Geschäftsregeln, die nirgendwo sonst zu finden sind, weder in der Dokumentation noch in Code-Kommentaren. Ihr Nachfolger ist 28 Jahre alt, bevorzugt Cloud-Technologien und sieht sich mit einem Code-Bestand konfrontiert, dessen Logik in Millionen von Zeilen verborgen ist, die vor seiner Geburt geschrieben wurden.
Dieses Szenario wiederholt sich tagtäglich in Unternehmen. Kritische Geschäftsregeln sind in jahrzehntealtem Mainframe-Code verankert, während Mainframe-Fachwissen verschwindet, da erfahrene Fachleute in den Ruhestand gehen und jüngere Ingenieure sich eher für Cloud-Technologien interessieren. Die daraus resultierende Wissenslücke erschwert sogar eine schrittweise Modernisierung.
BMC begegnet diesem Problem mit GenAI-Funktionen im gesamten BMC-AMI-Portfolio, das in diesem Quartal um zwei wichtige Ergänzungen erweitert wurde:
Selektive Modernisierung: BMC-AMI-Assistant in BMC-AMI-DevX-Code-Insights bietet eine GenAI-gestützte Konvertierung von COBOL zu Java. Dabei handelt es sich nicht um eine automatische Konvertierung, sondern um eine geführte Transformation, bei der Entwickler die beste Sprache für jede Aufgabe auswählen und dann selektiv COBOL-Code extrahieren und in modulares, gut strukturiertes Java konvertieren. Teams konzentrieren sich auf die Bereiche, in denen sie den größten Mehrwert schaffen, was zu einer sichereren und schnelleren Modernisierung führt.
Wissenstransfer: Die in BMC-AMI-Ops und BMC-AMI-zAdviser-Enterprise-On-Prem integrierte Knowledge-Expert bietet direkt im Workflow kontextbezogene Dialog-Anleitungen. Das Fachwissen erfahrener Mitarbeiter wird für das gesamte Team zugänglich, wodurch Qualifikationslücken geschlossen werden, ohne dass man auf knappe Talente angewiesen ist.

Dies steht im Einklang mit einer breiteren Entwicklung in der Branche. Die BMC-Umfrage „2025 State of the Mainframe Survey” ergab, dass 37 % der Befragten mittlerweile KI vertrauen, wenn es um die Empfehlung von Diagnosemaßnahmen geht, und 32 % bereit sind, KI diese Empfehlungen ausführen zu lassen – eine Verlagerung von KI als Berater zu KI als Betreiber.
Operative Einblicke in den Workflow
Geschäftsabläufe erstrecken sich über mehrere Systeme, Umgebungen und Teams. Wenn ein Nutzer wissen muss, „Welche Workloads sind in den letzten 24 Stunden fehlgeschlagen?“, überprüft er Dashboards, liest Protokolle, vergleicht Dokumentationen – und macht so aus einer 30-Sekunden-Frage eine 10-minütige Untersuchung. Multipliziert man dies mit Hunderten von täglichen Abfragen, summiert sich der kognitive Aufwand.
Zu viele KI-Lösungen erhöhen die Komplexität, anstatt diese zu reduzieren. Echter Fortschritt entsteht durch „unterstützte Prozesse“: KI, die menschliches Fachwissen ergänzt, anstatt es zu ersetzen, wobei die Intelligenz direkt dort eingebettet ist, wo bereits gearbeitet wird.
Jett, unser GenAI-gestützter Berater in Control-M SaaS, veranschaulicht dieses Prinzip. Fragen Sie „Welche Workloads sind in den letzten 24 Stunden fehlgeschlagen?“ und erhalten Sie Antworten, die auf tatsächlichen Protokollen, Metriken und Ausführungshistorien basieren – eine sachliche Analyse, die genau dann geliefert wird, wenn Sie sie brauchen.
Dank seiner erweiterten Funktionen kann Jett nun Fragen wie „Wie kann ich …?“ anhand der Produktdokumentation beantworten, eine Galerie mit häufig vorkommenden Szenarien pflegen und aus bevorzugten Suchanfragen lernen. Wissen, für das früher Handbücher durchsucht werden mussten, ist nun sofort verfügbar.

Self-Service im Unternehmensmaßstab
Raymond James koordiniert über 700 Geschäftsanwendungen mit 700 Self-Service-Benutzern – wodurch Supportanfragen um 60 % reduziert und mehrwöchige Audits auf einen einzigen Tag verkürzt werden konnten.
„Bei Control-M geht es wirklich um Zusammenarbeit. Wir haben jetzt fast 700 Benutzer im gesamten Unternehmen, die mit Control-M interagieren, sich anmelden und aktiv den Status ihrer Anwendungen überprüfen. Dazu gehören Geschäftsanwender, Entwickler, Datenteams und viele mehr. Das war für unsere Geschichte, unser Wachstum, unsere Reifung und den gesamten kontinuierlichen Verbesserungsprozess unglaublich vorteilhaft.“
– Chris Haynes, Associate Director of IT Operations Services bei Raymond James Financial
Unterstützte Prozesse ermöglichen Self-Service, während die Orchestrierung die Compliance und Skalierbarkeit gewährleistet. Zusammen mit einer modernisierten Benutzeroberfläche und einer breiteren Unterstützung von Cloud-Plattformen wächst Control-M weiter. Als neuer Partner von Databricks bietet Control-M erweiterte Integrationsfunktionen für den gesamten modernen Data Stack. Weitere neue Integrationen umfassen Control-M für SAP BTP, Azure DevOps, Informatica Cloud Services und viele mehr. Jeden Monat werden neue und verbesserte Integrationen veröffentlicht, sodass Control-M Workflows überall dort orchestrieren kann, wo Unternehmen tätig sind.
Proaktive Datenvalidierung in großem Maßstab
Fehlerhafte Daten verfälschen Analysen, führen zum Scheitern von Compliance-Prüfungen und untergraben automatisierte Entscheidungen. Wenn Qualitätsprobleme nicht frühzeitig erkannt werden, wirken sie sich auf ganze Ökosysteme aus. Wenn ein Betrugserkennungsmodell fehlerhafte Trainingsdaten entdeckt, übernimmt jede nachgelagerte Vorhersage diesen Fehler.
Herkömmliche Validierungsansätze versagen angesichts des modernen Maßstabs, da sie nach der Verarbeitung durchgeführt werden. Bei der Batch-Berichterstellung funktionierte es, Probleme erst Stunden später zu entdecken. Für Echtzeitentscheidungen – Betrugserkennung, dynamische Preisgestaltung, personalisierte Empfehlungen – ist eine reaktive Validierung nutzlos.
Die Lösung erfordert die direkte Einbettung der Validierung in die Workflows. Control-M Data Assurance, ein neuer Service für selbst gehostete Control-M-Umgebungen, validiert Daten in jeder Phase der Pipeline. Fehlgeschlagene Prüfungen stoppen die Ausführung und lösen Warnmeldungen aus, bevor fehlerhafte Daten nachgelagerte Verbraucher erreichen.


Dadurch können Unternehmen von einer reaktiven Erkennung zu einer proaktiven Prävention übergehen – Fehler werden an der Quelle erkannt, anstatt beschädigte Datensätze erst dann zu entdecken, wenn sie bereits fünfzehn abhängige Systeme beeinträchtigt haben. Datenpipelines laufen zuverlässig und liefern vertrauenswürdige Ergebnisse.
Aufbau widerstandsfähiger Prozesse für das nächste Jahrzehnt
Der Weg in die Zukunft besteht nicht darin, sich zwischen Altem und Neuem zu entscheiden, sondern darin, heterogene Systeme intelligent zusammenarbeiten zu lassen. Diese Releases bringen diese Vision durch drei Kernprinzipien voran:
- Nahtlose plattformübergreifende operative Intelligenz – Überwindung künstlicher Barrieren zwischen Mainframe- und verteilten Systemen
- In bestehende Workflows integrierte KI-Unterstützung – Intelligenz dort, wo bereits gearbeitet wird, und nicht in separaten Tools
- Erstklassige Beobachtbarkeit und Automatisierung für alle Systeme – Moderne Funktionen unabhängig von Architektur oder Alter
Dies sind keine Wunschziele. Vielmehr handelt es sich um praktische Anforderungen für Unternehmen, die geschäftskritische Dienste in hybriden Umgebungen betreiben. Jede dieser Funktionen reduziert das Betriebsrisiko und beschleunigt gleichzeitig Innovationen – insbesondere dann, wenn jede Minute zählt.
Von Ram Chakravarti, CTO bei BMC Software












