Unternehmen müssen ihre KI anhand ihrer eigenen Risikoparameter kategorisieren

Bernd Greifeneder, CTO und Gründer von Dynatrace

Die Europäische Union hat heute am 13. März 2024 den AI Act, das erste KI-Gesetz der Welt, beschlossen. Die Parlamentarier stimmten mehrheitlich für das Gesetz, das nun in Kraft treten kann – damit heißt es grünes Licht für schärfere KI-Regeln in der EU. Dazu ein Kommentar von Bernd Greifeneder, CTO und Gründer von Dynatrace: Unternehmen müssen ihre KI anhand ihrer eigenen Risikoparameter kategorisieren und mögliche Auswirkungen auf Umsatz, Reputation und Stakeholder-Beziehungen prüfen.

„Viele Organisationen werden sich fragen, wie sie sich während der zweijährigen Übergangszeit, die wahrscheinlich in den kommenden Monaten beginnt, vorbereiten sollen. Betrachtet man die festgelegten Leitlinien scheint es, dass die EU verständlicherweise den Schwerpunkt ihrer Regulierung auf die Verringerung geopolitischer Risiken von KI gelegt hat, nicht aber auf Geschäftsrisiken. Infolgedessen werden die meisten Unternehmen vermutlich das verwenden, was die EU als ‚minimale bis keine Risiken‘ für KI-Modelle definiert. Diese Modelle fallen nicht direkt unter den Einfluss des AI Acts, aber die EU ermutigt Organisationen, sich zu freiwilligen Verhaltenskodizes zu verpflichten, um ihr Risiko besser zu steuern. Es ist von entscheidender Bedeutung, dass sie diesen Ratschlag ernst nehmen, denn sonst könnten die Unternehmen feststellen, dass sie sich trotz ihrer „Konformität“ einem Risiko aussetzen.

Bei der Entwicklung ihrer eigenen Verhaltenskodizes müssen Unternehmen zunächst berücksichtigen, dass KI nicht gleich KI ist. Einige Technologien, etwa solche, die auf nicht-deterministischen Ansätzen wie der generativen KI basieren, sind mit größeren Risiken verbunden als andere, bewährtere Modelle. Daher müssen Führungskräfte ihre KI anhand ihrer eigenen Risikoparameter kategorisieren und mögliche Auswirkungen auf Umsatz, Reputation und Stakeholder-Beziehungen prüfen. Sie müssen zudem berücksichtigen, auf welche Art und Weise KI Entscheidungen trifft, ob sie transparent ist, auf welche Prozesse sie Zugriff hat und welche Prozesse sie kontrolliert. Außerdem sollte festgestellt werden, ob die Ergebnisse deterministisch sind. Das heißt, ob sie aus relevanten und kontextbezogenen Daten abgeleitet werden, die in Echtzeit aktualisiert werden und daher sehr genau sind. Oder zieht die KI Schlussfolgerungen aus zufälligen und geschlossenen Daten, was sie anfällig für Fehler und Halluzinationen macht. Ohne einen Klassifizierungsrahmen, der diese Merkmale klar abbildet, werden Unternehmen Schwierigkeiten haben, KI sicher zu nutzen – unabhängig davon, ob sie die Vorschriften einhalten oder nicht.“

#Dynatrace