Stellen wir die schwierigen Fragen zur künstlichen Intelligenz?

hexagon-3420935_640Der Kampf zwischen der qualitativen und der quantitativen Analyse dauert inzwischen einige Jahrzehnte an. Inzwischen wird die künstliche Intelligenz (KI) auf neue Weise in Wirtschaft und Politik sowie der Wissenschaft genutzt. Bei der Nutzung der KI-Technologie sollten jedoch die Schwachstellen der Technologie berücksichtigen werden, damit wir nur geprüfte Ergebnisse zum Erkenntnisgewinn nutzen.

In vielen Bereichen des Lebens wurde schon immer quantitative und qualitative Faktoren gegeneinander abgewogen. Was sich jedoch in letzter Zeit geändert hat, ist die zunehmende Präsenz von KI-Tools, die Verfeinerung dieser Tools und die Algorithmen zur Manipulation riesiger Datenmengen. Diese KI-Werkzeuge sind neu und die Bedeutung der KI in unserem Leben nimmt kontinuierlich zu. Die neu analysierten Daten sollen den Entscheidungsträgern deren Entscheidungen erleichtern, neue Erkenntnisse berücksichtigen, die durch komplexe Algorithmen erzeugt werden, die mehr Rohdaten und noch mehr Variablen enthalten, als jemals zuvor verfügbar waren. KI-Anbieter, die wie selbstverständlich die Macht und das Potenzial dieser neuen Analyselösungen nutzen, lassen uns jedoch nicht in ihre Geheimnisse blicken. Wir erfahren nie, wie die Analyse durchgeführt werden, die zu den Schlussfolgerungen führen, denen wir vertrauen sollen. Laut der Autorin Cathy O’Neil in ihrem 2016 erschienenen Buch „Weapons of Math Destruction“ ist es die „proprietäre und geheimen Soße“ die es uns unmöglich macht, die Gültigkeit der Zahlen und die Ergebnisse zu verstehen.

Wie können Entscheidungsträger angesichts dieser Herausforderungen die bereitgestellten Informationen vertrauensvoll nutzen, ohne von ihnen auf das Glatteis geführt zu werden? Dies ist eine fast unlösbare Frage…

Sollte sich Entscheidungsträger jedoch für die KI-Nutzung entscheiden, müssen die Ergebnisse immer qualitativ analysiert und die Entscheidung kritisch hinterfragt werden. Dieses Konzept ist zwar nicht neu, aber wird immer wieder in der Technikeuphorie vergessen.

 

Reale Beispiele

Vor Jahren arbeitete ich in einem Callcenter eines großen Kreditkartenanbieters. Dies war zu den Zeiten, als Call-Center noch relativ neu waren und die genutzte Datenanalyse noch relativ einfach war. Am Ende jedes Monats wurden die Agenten streng nach der Anzahl der von ihnen bearbeiteten Anrufe eingestuft. Der Agent, der Monat für Monat als Zweiter durchs Ziel kam, war wahrscheinlich schlauer als alle anderen Agenten zusammen. Egal was passierter die besagte Kollegin wurde immer Zweite. Wie konnte sie dies schaffen? Wenn der Agent, der konsistent zuerst fertig war, einen komplexen Anruf erhielt, der mehr als die vorgesehene Zeit benötigte, brach sie „versehentlich“ den Anrufer ab. Dies geschah in der Hoffnung, dass der Anrufer erneut anrufen würde und beim Folgeanruf einen anderen Agenten bekommen würde, der sich die Zeit nehmen musste, um das Problem zu lösen. Irgendwann bemerkte das Management die Unstimmigkeiten. Dies dauerte jedoch mehrere Monate, in denen das Unternehmen zumindest teilweise einen lausigen Service bot.

Da jedoch nur die reinen Zahlen analysiert wurden, ergab sich ein falsches Ergebnis und führte zu einem unverdienten Bonus für den schummelnden Mitarbeiter.

Das zweite Beispiel stammt aus einem großen Beratungsunternehmen. Viele junge Mitarbeiter werden nach Zielvorgaben und „abrechenbaren Stunden“ bewertet. Diese Ziele müssen sie mindestens erreichen, um für eine Beförderung und eine finanzielle Belohnung in Betracht gezogen zu werden. Dieses Bewertungsmodell steht immer dem Ziel entgegen, den Kunden einen effizienten Service zu bieten. Wer besagt, dass der Berater, der mehr bezahlbare Stunden arbeitet wirklich mehr wert als der Berater, der die Arbeit in kürzerer Zeit erledigt und somit weniger abrechenbare Stunden hat?

Nimmt man die Analyse vor, dann wird der Berater, der die meisten Stunden abrechnet, für seine Firma in Bezug auf die Abrechnung wertvoller sein. Ich bezweifle jedoch, dass der Kunde auch so denken wird.

Aber die Zahlen lügen nicht.

Wenn durch die Einbeziehung vieler weiterer messbarer Variablen (ob etwas wirklich „messbar“ ist oder nicht ist eine völlig andere Frage) die Komplexität eines Problems immer gleich ausfällt, dann bleiben die zugrunde liegenden Probleme gleich. Die Zahlen an und für sich liefern nie ein vollständiges Bild, unabhängig davon, wie tief man in die Details einer Berechnung einsteigt.

Die Geräte, die die riesigen Datenmengen superschnell verarbeiten und die beeindruckenden Ergebnisse liefern, bieten uns möglicherweise kein unzureichendes und unvollständiges Bild. Aus diesem Grund ist es fragwürdig auf dem Haufen fehlerhafter Daten wichtige Entscheidungen zu ziehen.

Außerdem darf man sich nicht blind auf die Ergebnisse verlassen, es sei denn, der Entscheidungsträger hat ein umfassendes Verständnis von der Zahlenbasis und weiß, wie die unterschiedlichen Faktoren gewichtet wurden.

Bei der Bewertung von KI-Ergebnissen sollte man sich immer von zwei Überlegungen leiten lassen:

Kein Code und kein Programmierer ist ohne jegliche Voreingenommenheit entstanden. Im ersten Moment ist dieser Gedanke etwas schwer zu glauben. Aber bei genauer Betrachtung der Fakten, macht die Aussage Sinn.

Kein Mensch ist ohne Voreingenommenheit. Dieser Gedanke ist noch irgendwie zu akzeptieren, aber eine Welt aus 1- und 0-Werten beschreibt noch immer Schwarz- und Weiß-Welten. Diese können jedoch nur die Wahrheit beschreiben.

Wenn man nicht ganz genau weiß, wie die Berechnungen durchgeführt wurden und welche Rechenfehler bzw. Verzerrungen (beabsichtigte oder unbeabsichtigte) sich in die Algorithmen eingeschlichen haben, müssen wir die nackten Zahlen immer skeptisch betrachten. Wie wurde die jeweilige Analyse durchgeführt? Wurde beispielsweise nicht nur der Endpunkt, sondern auch den Ausgangspunkt betrachtet? Wie wurden die jeweiligen Eigenschaften gewichtet Spielen die Gewichtungen bei der Ergebnisfindung eine Rolle?

 

Zwischenfazit

Keine dieser Fragen stellt uns bereits offensichtliche Antworten bereit, aber bevor man eine Entscheidung trifft, die nur auf der Analytik basiert, sollte man die Ausgangswerte genau kennen.

Da wir immer beschäftigt sind, ist manchmal eine Zahlenreihe oder ein Diagramm, die das Ergebnis komplexer Berechnungen darstellen, ein nützliches Werkzeug. Manchmal sagt ein Schaubild mehr als 1000 Worte.

Vorhersagen basieren häufig auf zuvor gesammelten Daten. Die Vorhersagen müssen jedoch ständig neu bewertet werden. Die Quintessenz lautet, dass ohne Berücksichtigung qualitativer Kriterien alle Entscheidungen, die auf KI-Vorhersagen basieren, nicht stichhaltig sind.

Die künstliche Intelligenz liegt im Trend und wird uns noch lange erhalten bleiben. Daher wird die KI auch zunehmend in unserem Leben präsent sein. Die KI bietet jedoch nicht die Antwort auf alle Dinge, und diejenigen, die sich darauf bei Unternehmensentscheidungen verlassen, gut beraten wären, ihre Entscheidungen noch einmal kritisch zu würdigen.

 

Schwachstellen und rechtliche Probleme

Es gibt einige, die behaupten, dass das Lesen der Beipackzettel bei Medikamenten bereits den Patienten wieder gesund machen. Meist werden solche Aussagen von Anwälten in die Welt gesetzt. Aber die Probleme, die durch die Nutzung künstlicher Intelligenz (KI) entstehen, erfordert es, dass sich die Unternehmen mit den damit verbundenen rechtlichen Problemen und den Schwachstellen auseinandersetzen.

Die Definition von „künstlicher Intelligenz“ ist ein bisschen schwammig und verändert sich kontinuierlich. Im weitesten Sinne umfasst die KI nicht nur die Aspekte der Datenverarbeitung und des Maschinenlernens, sondern auch die Aspekte der Biometrie, „Big Data“ und dem Internet der Dinge (IoT).

Werden elektronische Geräte immer intelligenter und allgegenwärtiger – sowohl im Unternehmen als auch zu Hause – werden praktische und rechtliche Erwägungen (einschließlich der Schwachstellen) immer wichtiger.

Einige, wenn nicht alle Rechtsbereiche, müssen beim KI-Einsatz in den Unternehmen berücksichtigt werden: Vertragsrecht, Risikobewertung, Datenschutz, Produkthaftung, Kartellrecht, internationales Recht, geistiges Eigentum und die genutzten Kommunikationstechnologien.

Einer meiner Freunde hat seine gesamte Karriere damit zugebracht, die trocknen Vertragstexte zu lesen und diese zu schreiben. Die KI wirft jedoch einige Probleme auf, die ihm bisher noch nicht aufgefallen waren. Eine der bemerkenswertesten Bereiche sind die Erwartungen an bestimmte Services. Im Vertragsrecht ist es wichtig, dass beide Parteien genau wissen, welche Informationen das KI-Produkt liefern soll und wie diese Informationen zusammengestellt wurden.

Nehmen wir einfach mal an, dass die Herkunft der Daten geklärt ist und der Auftraggeber auch der Eigentümer dieser Daten ist. Die Anbieter von KI-Diensten werden bis auf weiteres behaupten, dass ihre KI-Prozesse proprietär (und hochgeheim) sind. Daher wird der Kunde diese Prozesse nie verstehen und er muss glauben, was in dieser mysteriösen Black-Box passiert. Da der Glauben manchmal Berge versetzt, aber keine Beweise liefert, kann der Kunde sich auch nicht auf die von der KI generierten Daten verlassen.

Wie wird der Nutzer geschützt, wenn sich durch unvermeidliche Weiterentwicklungen der zugrunde liegenden KI-Technologien und -Prozesse eine neue Faktenlage ergibt? In die Verträge zwischen den beteiligten Unternehmen bzw. Personen sollten die Begriffe der Technologieentwicklung integriert sein. Dies gilt insbesondere dann, wenn die Vereinbarung zwischen dem Unternehmen und dem KI-Anbieter mehr als ein einzelnes Projekt umfasst. Die Anbieter von Dienstleistungen mögen solche Öffnungsklauseln nicht und wollen den Kunden lieber in ein starres Vertragswerk einbinden.

Eine weitere vertragliche Komponente sollte sich mit den Fragen zur Risikoabsicherung befassen. Wer trägt die  Risiken, die sich aus den KI-erzeugten Daten ergeben. Die Anzahl der Risiken hängt von der Anzahl der Variablen und der Komplexität der durchgeführten Operationen ab. Wer trägt die Verantwortung, wenn Dinge schieflaufen und die KI-erzeugten Daten, auf die man sich verlässt, ein Problem verursachen, das zu Schäden führt? Vor diesem Hintergrund müssen mögliche Versicherungs- und Entschädigungsbedingungen sorgfältig bedacht und bewertet werden.

Auch ist eine klare Terminierungsstrategie unabdingbar. Diese wird insbesondere angesichts der tatsächlichen Zahlenverarbeitung gemachten Geheimnisses und daraus resultierenden Abhängigkeit des Unternehmens von den erzeugten Daten, notwendig.  Im Allgemeinen gehören solche Paragraphen, die sich mit der automatischen Vertragsverlängerung beschäftigen, immer zum Nachteil des Kunden.

Mathias Hein, Consultant, Buchautor, Redakteur
Mathias Hein, Consultant, Buchautor, Redakteur

Die Grundlage für das Management von Unbekanntem bildet eine vertragliche Flexibilität. Es gibt bekannte Herausforderungen, die mit zunehmender Abhängigkeit von Daten einhergehen. Daher muss das Kleingedruckte der KI-Verträge genau studiert werden und der Kunde muss auf Bedingungen bestehen, die ihm die notwendige Flexibilität gewährleisten, wenn bisher unbekannte und unerwartete Anforderungen durch das AI-Produkt (beispielsweise durch Neuentwicklungen) auftreten, die sich zum Nachteil des Kunden auswirken. Dieselbe vertragliche Flexibilität sollte auch bei der Weiterentwicklung der Technologie möglich sein. Auch kann sich während der Laufzeit eines Projekts das regulatorische Umfeld verändern und die genutzten Produkte wie auch die Vereinbarungen müssen sich flexibel an die neuen Anforderungen anpassen.

Viele dieser Themen erfordern weitere und tiefere Diskussionen. Für die Absicherung von KI-basierten Gütern und Dienstleistungen müssen nicht nur unterschiedliche Vertragsbedingungen berücksichtigt werden, sondern auch solche Aspekte integriert werden, die den Erwerber dieser Daten (den Kunden) schützen.

#Netzpalaver