Die Entwicklung von künstlicher Intelligenz (KI) schreitet schnell voran und bietet sowohl der Wirtschaft als auch der Gesellschaft große Chancen. Gleichzeitig ruft KI aber auch Skepsis hervor, bietet sie doch einiges Missbrauchspotenzial. Die EU-Kommission will KI daher strenger regulieren – das zeigt der Entwurf für eine EU-Verordnung, der letzte Woche an die Öffentlichkeit gelangte. Auf 81 Seiten werden dort Regeln und Mindeststandards insbesondere für „Hochrisiko-Anwendungen“ vorgegeben, die Vertrauen schaffen und bestimmte Praktiken eindämmen sollen, etwa die Benachteiligung bestimmter Personengruppen und die Manipulation von Nutzern. Nur in wenigen Bereichen wie der wahllosen und anlasslosen Überwachung sowie beim Social-Scoring soll der KI-Einsatz komplett verboten werden.
Peter van der Putten, Director Decisioning & AI Solutions bei Pegasystems und Assistant Professor AI an der Universität Leiden, kommentiert die Pläne der EU-Kommission:
„Dass die EU auf eine Regulierung von KI-Anwendungen drängt, kommt nicht unerwartet. Dafür ist KI einfach zu wichtig und die Weiterentwicklung von KI-Anwendungen, guten wie bösen, schreitet zu schnell voran. Selbst die Anbieter von KI-Technologien und Unternehmen, die KI-Lösungen einsetzen, sind inzwischen mehrheitlich der Meinung, dass Selbstregulierung nicht ausreicht und klare Regeln und Grenzen es tatsächlich leichter machen würden, in verantwortungsvolle und vertrauenswürdige KI zu investieren.
Allerdings ist es nicht damit getan, die Akzeptanz von KI durch Regeln und Vorgaben zu stärken – das eigentliche Ziel muss sein, KI fair, transparent und erklärbar zu gestalten, damit sie sich unser Vertrauen wirklich verdient. Schließlich stecken die EU-Vorgaben nur weite Grenzen ab, das heißt, dass weiterhin KI-Anwendungen entwickelt und eingesetzt werden können, die zwar technisch legal sind, aber nicht im Sinne des Kunden arbeiten, sondern nur einseitig Unternehmensinteressen dienen. Hier müssen die Verbraucher für Veränderungen sorgen, indem sie solche KI-Anwendungen meiden, sodass langfristig Lösungen aus ihnen hervorgehen, die zu beiderseitigem Nutzen sind.
Zudem darf die EU nicht nur einen Blick aus der heutigen Perspektive auf KI werfen, sie sollte auch die bisherige und künftige Entwicklung berücksichtigen. Liest man aktuelle Nachrichten rund um KI, entsteht der Eindruck, Künstliche Intelligenz sei mit Machine-Learning gleichzusetzen, und hinter Machine-Learning stecke immer Deep Learning – also lose an die Funktionsweise des menschlichen Gehirns angelegte Mechanismen. Doch es gibt noch weit mehr Technologien für Machine-Learning, darunter auch einige klassische, die vielleicht weniger genau sind, dafür deutlich einfacher, transparenter und robuster. Außerdem geht es bei KI ja nicht nur darum, wie Maschinen lernen, sondern auch wie sie schlussfolgern und entscheiden. Die dafür notwendigen Regeln und Logiken können genutzt werden, um Machine-Learning zu kontrollieren, Richtlinien einzuhalten und ethische Standards zu berücksichtigen.
Eine große Herausforderung ist, dass KI längst nicht mehr nur das Sammeln historischer Daten und deren Auswertung mit einem einzigen KI-Modell umfasst. Moderne KI-Systeme bestehen aus hunderten oder gar tausenden solcher Modelle, die ständig hinzulernen. Sie haben keine festen Release-Zyklen für das Entwickeln, Testen und Veröffentlichen – stattdessen entwickeln sie sich kontinuierlich weiter, passen sich an und beeinflussen mit ihren Entscheidungen auch, wo und wie sie weitere Erfahrungen sammeln, sodass sich selbstverstärkende Feedback-Schleifen entstehen können.
Mit Regeln und Vorschriften allein ist es daher nicht getan – es braucht immer auch den Willen des Entwicklers, eine KI fair, transparent und erklärbar zu gestalten. Darüber hinaus ist es sicher eine gute Idee, die neuen Regeln und Vorschriften für automatisierte Entscheidungen darauf hin zu überprüfen, ob und inwieweit sie bereits für Entscheidungen gelten, die heute allein von Menschen getroffen werden.
#Pegasystems