In den letzten Monaten drehten sich die Gespräche mit Führungskräften unweigerlich um ChatGPT und den Aufstieg der generativen KI. Fast alle Führungskräfte sind sich darüber im Klaren, dass diese Technologie einen gewaltigen Paradigmenwechsel im Geschäftsleben darstellt und ihr Unternehmen radikal verändern könnte. Unweigerlich sagen sie auch, dass sie und ihre Belegschaft bereits voll ausgelastet sind. Sie sind sich nicht ganz sicher, wie sie vorgehen sollen, und sie haben keine Zeit, sich in alle Feinheiten der neuen KI-Modelle einzuarbeiten, einen Plan zu entwickeln, der ihr Unternehmen und ihre internen Arbeitsabläufe grundlegend verändern würde, und ihn dann umzusetzen.
Es gibt einen Weg, um den Wert von KI im Unternehmen zu realisieren – und er beinhaltet keine umfassende Umgestaltung des Unternehmens in einem einzigen Schritt. Es geht jedoch um die Nutzung vorhandener Ressourcen, die viele Firmen schon lange zu nutzen versuchen.
Für Führungskräfte, die sich fragen, wie sie mit KI vorankommen sollen, gibt es drei wichtige Punkte, die ihnen bei diesem Prozess helfen können. Erstens: KI und Big-Data sind untrennbar miteinander verbunden. Zweitens stehen große Sprachmodelle (LLMs) noch am Anfang, und sie werden am besten in domänenspezifischen Modellen eingesetzt. Drittens: Der absolute Schlüssel zur Wertschöpfung aus KI ist die Fähigkeit, sie zu operationalisieren.
KI und Daten gehen Hand in Hand
Noch vor wenigen Jahren war von Data Lakes die Rede – einem einzigen Speicher für unternehmensweite Daten, der den Erkenntnisgewinn beschleunigen soll. Heute sprechen die Unternehmen von Datenozeanen. Im Zeitalter von Cloud-Computing, IoT-Geräten und sozialen Medien zeigt der Trend zu immer größeren Datenmengen immer weiter nach oben.
Doch je nach Branche bleiben zwischen 40 und 90 % der Daten ungenutzt. Unternehmen haben so viele Daten, dass sie nicht wissen, was sie damit anfangen sollen.
Damit KI einen Wert hat, muss sie auf qualitativ hochwertigen Datensätzen trainiert werden. Für viele Anwendungsfälle ist die Qualität der Datensätze genauso wichtig wie das Datenvolumen. Gleichzeitig sind die Datenmengen so groß, dass Unternehmen ohne KI nicht in der Lage sind, die Bedeutung ihrer Daten zu entschlüsseln. KI und Daten sind eng miteinander verwoben, wobei das eine den Wert des anderen freisetzt.
LLMs befinden sich noch in einem Anfangsstadium
Der Hype um LLMs ist groß, denn sie ermöglichen es den Nutzer*innen, mit Systemen in der gleichen Sprache zu interagieren, die wir auch im Gespräch mit einem Freund oder Kolleg*innen verwenden würden. Das Potenzial für die Demokratisierung einst komplexer Aufgaben ist immens. Auf den ersten Blick scheinen LLMs fast unbegrenztes Potenzial zu haben.
Die meisten Unternehmen sollten sich bemühen, KI auf spezifische Anwendungsfälle anzuwenden, indem sie domänenspezifische Modelle verwenden, die einen unmittelbaren Nutzen bringen können. Darüber hinaus sollten sie mit strategischen Partnern (Softwareanbietern und Systemintegratoren) zusammenarbeiten, und zwar vom Konzept bis zur Implementierung und Wertrealisierung. Schließlich sollten sie sicherstellen, dass die Lösung alle Risikoelemente – Sicherheit, Genauigkeit, Qualität, Datenschutz, Voreingenommenheit und Ethik – abdeckt, um für die Operationalisierung geeignet zu sein.
Eine unternehmensweite Umstellung wird nicht über Nacht erfolgen. Unternehmen können jedoch nach gut definierten Projekten Ausschau halten, die zum Erfolg führen und ihren Teams die Erfahrung vermitteln, die sie für künftige Iterationen benötigen.
Operationalisierung der Innovation
Wie sieht eine erfolgreiche Verbindung von Daten und domänenspezifischer KI in der Praxis aus? Betrachten wir den IT-Betrieb und das Servicemanagement, um das Konzept zu veranschaulichen. Auf der Seite des IT-Betriebs verfügen Unternehmen über eine große Menge an Daten – Metriken, Protokolle, Ereignisse, Traces, Netzwerk-, Speicher-, Anwendungsleistungsdaten und Cloud-Überwachungsdaten – die aus verschiedenen Umgebungen extrahiert werden. Diese Daten können mit dem Servicekontext des Unternehmens verknüpft werden, z. B. mit Tickets, Ausfallzeiten und Wartungsanfragen.
Diese Verknüpfung von Service- und Betriebsdaten ist unter dem Begriff ServiceOps bekannt geworden und wird in der Regel dazu verwendet, die Zusammenarbeit im gesamten Unternehmen voranzutreiben, Routineaufgaben zu automatisieren und eine Vorwarnung vor Störungen zu erhalten. Durch die Schulung und Feinabstimmung eines LLM auf ServiceOps können Firmen mit bereichsspezifischen Daten Muster erkennen und bisher nicht zugängliche Informationen wie Erkenntnisse über die Problemlösung, Vorhersagen über Geschäftsrisiken und mehr generieren.
Generative KI hat das Potenzial, komplexe Aufgaben zu demokratisieren, indem sie es den Nutzer*innen ermöglicht, über natürliche Sprache mit ihnen zu interagieren. Sie automatisieren auch die Cybersicherheitsabwehr als Reaktion auf Angriffe, die selbst schneller ausgeführt werden, als Menschen reagieren könnten.
Obwohl sich die generative KI noch im Anfangsstadium befindet, können Unternehmen von den Vorteilen profitieren, indem sie hochwertige Anwendungsfälle mit einem pragmatischen Ansatz operationalisieren – einem Ansatz, der domänenspezifische LLMs umfasst und durch die Einrichtung der erforderlichen Leitplanken wie prompte technische Orchestrierung, Sicherheit und Einhaltung gesetzlicher Vorschriften in die Lösung integriert.
Von Ram Chakravarti, Chief Technology Officer bei BMC Software