5 Kriterien für industrietaugliche KI-Chatbots und -Assistenten

Generative KI ist in aller Munde: Immer mehr Menschen nutzen sie, immer mehr Expertinnen und Experten heben den mahnenden Finger. Auch in Industrieunternehmen fragen sich die Verantwortlichen, wo und wie sie ChatGPT-ähnliche Technologien sinnvoll einsetzen können. Antworten, worauf es bei KI-Assistenten und Copiloten ankommt, hat Augmentir, Anbieter einer nativ mit KI arbeitenden Softwareplattform für Connected-Worker.

ChatGPT ist eine Erfolgsgeschichte. Schon im November 2023 hatten 78 Prozent der Deutschen von dem KI-Chatbot gehört oder gelesen. Ein Drittel hatte das Tool bereits ausprobiert und 13 Prozent sogar häufig eingesetzt, wie eine Statista-Umfrage zeigt.

Auch Unternehmen überlegen in steigendem Maße, wie sie von der Technologie profitieren könnten. Gleichzeitig wächst das Bewusstsein für die problematischen Seiten der Nutzung. Berichte über falsche oder frei erfundene Antworten nähren Zweifel: Sollten Unternehmen lieber ganz die Finger von KI-Chatbots lassen? Auf keinen Fall, sagt Carsten Hunfeld, Director EMEA bei der Industrie-Software-Plattform Augmentir: „Allerdings gibt es bei Auswahl und Einsatz der digitalen Assistenten einiges zu beachten.“ Fünf Kriterien, so Hunfeld, seien dabei entscheidend:

 

Relevante, verlässliche Datenbasis

Überall da, wo die Sicherheit von Menschen auf dem Spiel steht, muss auf generative KI-Assistenten hundertprozentig Verlass sein. Das gelingt nur, wenn sich das Universum der Daten, mit denen ein solcher KI-basierter Chatbot beziehungsweise Copilot arbeitet, auf unternehmenseigene Informationen beschränkt. Diese sollten für den Betrieb relevant und vor allem aktuell sein. – Ein himmelweiter Unterschied zu herkömmlichen Bots, die sich aus der Gesamtheit der im Internet vorhandenen Daten bis zu einem Zeitpunkt X bedienen! Denn dort finden sich jede Menge Informationen, die für das jeweilige Anwender-Unternehmen und seine Prozesse gar nicht relevant sind oder veraltete Angaben enthalten.

 

Klar definierte Zugriffsrechte

Der zweite zentrale Unterschied ist, dass eine KI für die Industrie ihre Anwender und den Kontext kennt. Sie weiß, wer fragt und welche Befugnisse, Fähigkeiten und Kompetenzen die betreffende Person hat. Denn Werker, Fachkräfte, Vorgesetzte oder Spezialistinnen für ein bestimmtes Fachgebiet verfügen im professionellen Umfeld über unterschiedliche Rechte. Ihr Zugriff auf Inhalte ist daher an ihre Rollen, an feste Regeln und oftmals auch an Prozesse geknüpft. Das dient vor allem zwei Zwecken: Zum einen wird die Vertraulichkeit gewahrt. Eine Leiharbeitskraft, die vielleicht nur einige Wochen im Unternehmen sein wird, kommt so nicht in Kontakt mit Betriebsgeheimnissen oder Inhalten, die maßgeblich für die Wettbewerbsfähigkeit sind. Zweitens ist damit die Compliance garantiert, also das rechts- und prozesskonforme Ausspielen von Inhalten. Rollen und Zugriffsrechte einrichten und verwalten zu können, ist neben der einwandfreien Datenbasis daher der zweite wichtige Baustein, um zu gewährleisten, dass KI-basierte Assistenten keinen Schaden anrichten.

 

Gezielt erstellte Inhalte und Empfehlungen

Im Gegensatz zu den weitverbreiteten Bots formulieren Industrie-Assistenten die Antworten zu Fragen nicht jedes Mal neu. Für den Wechsel eines Werkzeugs oder das Anlegen von persönlicher Schutzkleidung wäre das auch nicht sinnvoll. Sie greifen stattdessen auf bereits erstellten und entsprechend getaggten Content zu. Dies kann eine Arbeitsanweisung in Form einer Standard-Operating-Procedure (SOP), ein ganzes Schulungsmodul oder nur eine einzelne, spezifische Videolektion sein. Schaltpläne, Zeichnungen oder eine Bedienungsanleitung sind ebenfalls Teil eines möglichen Content-Pools. Fragen in natürlicher Sprache beantwortet die KI daraus kontextbezogen und abgestimmt auf den speziellen Mitarbeitenden. Welche Inhalte genutzt werden, hängt wiederum von dessen Skills, Erfahrungen und Zertifizierungen ab. Die KI kann ihm auch erfasstes Erfahrungswissen vorschlagen, zum Beispiel aus dem – dokumentierten – Austausch zwischen zwei Kolleginnen, die dieses Problem zu einem früheren Zeitpunkt besprochen und gelöst haben. Denn in jedem Fall muss verhindert werden, dass der Rat des KI-Assistenten eine Person überfordert oder in gefährliche Situationen bringt, beispielsweise bei der Behebung von Problemen an einer Anlage.

 

Verifizierung von Quellen

Die unternehmenseigene Wissensbasis erweitert sich stetig – nicht zuletzt durch die Mitarbeitenden selbst. So kann eine Anlagenführerin, die mit Wartungsaufgaben betraut ist und eine Frage hat, heute per mobiler App Kontakt zu einem Spezialisten aufnehmen. Ein solches Gespräch inklusive Problemlösung lässt sich leicht aufzeichnen und für die Wissensdatenbank des Unternehmens mittels KI zusammenfassen. Allerdings sollte dieser neu gewonnene Content nicht einfach jedem User an die Hand gegeben werden. Vor allem sicherheitsrelevante Inhalte sind vor der Veröffentlichung dringend gegenzuchecken und freizugeben. Wichtiges Qualitätsmerkmal eines KI-Assistenten für die Industrie ist nämlich: Er kann zwischen geprüftem und ungeprüftem Content unterscheiden und entsprechende Regeln anwenden. So etwa, wann ein frischer Inhalt einer bestimmten anfragenden Person angezeigt werden kann. Ob das als unproblematisch und sicher eingeschätzt wird, hängt sehr oft von deren Level, Rolle und Berechtigungen ab. Begleitend ist es natürlich auch wichtig, einen Workflow für die Prüfung und Genehmigung von neuem Content zu definieren. Idealerweise passiert dies in derselben Plattform, die auch alle Inhalte und die KI-Algorithmen beherbergt.

 

Halluzinieren verhindern

Kritik haben sich ChatGPT & Co vor allem durch ihre Halluzinationen eingehandelt. Denn obgleich die generative KI überzeugend formulierte Resultate in Form von Text oder Bild darstellt, basieren manche Antworten nicht auf Fakten und Inhalten, sondern sind frei erfunden. Man spricht in diesem Zusammenhang auch von Konfabulation. Nun gibt es Bereiche, in denen das allenfalls ärgerlich ist, aber keinen unmittelbaren Schaden anrichtet. Anders im Unternehmensumfeld, wo Risiken für Gesundheit und Sicherheit von Menschen bestehen, Anlagen schwer beschädigt oder zum Stillstand gebracht werden könnten. Hier muss auf die Richtigkeit der Angaben 100 Prozent Verlass sein. Gerade darin zeigen sich große Unterschiede zwischen generativer KI für den Massenmarkt und den speziell für die Industrie entwickelten und trainierten Systemen. Denn mit potenziellen Halluzinationen kommen hier allenfalls Anwender in Kontakt, die aufgrund ihrer Expertise in der Lage sind, Falschaussagen zuverlässig zu enttarnen.

Fazit
Generative KI ist eine große Hilfe für Mitarbeitende, die sich einfach und problemlos mit relevanten Informationen für ihre Arbeit versorgen möchten. Es ist an den Unternehmen, durch eine entsprechende Datenbasis sowie Zugriffsrechte für die Aufbereitung, Kennzeichnung und Freigabe von Inhalten sicherzustellen, dass die eingesetzten KI-Bots das Vertrauen der Belegschaft zu jeder Zeit verdienen und auch allen Für- und Vorsorgepflichten gerecht werden. Assistenten, die in der Industrie genutzt werden, sollten daher auch speziell für die Industrie entwickelt sein.

#Augmentir