Mit dem EU-AI-Act hat die Europäische Union im Mai 2024 die weltweit erste umfassende Regulierung für künstliche Intelligenz verabschiedet. KI-Systeme mit inakzeptablem Risiko, etwa für Social-Scoring oder Emotionserkennung am Arbeitsplatz, sind in den Mitgliedsstaaten künftig verboten. KI-Systeme mit hohem Risiko hingegen sind zulässig, müssen aber in einer EU-Datenbank registriert werden und strenge Auflagen hinsichtlich Sicherheit, Dokumentation, Qualität der Trainingsdaten und menschlicher Aufsicht erfüllen. Als Hochrisiko-KI gilt KI in Produkten, die wie Fahrzeuge und medizinische Geräte unter die Produktsicherheitsvorschriften der EU fallen, oder in kritischen Infrastrukturen, der Strafverfolgung und anderen sensiblen Bereichen. Generative KI wiederum muss bestimmte Transparenzanforderungen erfüllen und beispielsweise offenlegen, wenn Inhalte mit KI generiert wurden oder urheberrechtlich geschütztes Material für das Training verwendet wurde. Bei Verstößen gegen den EU-AI-Act drohen Unternehmen Bußgelder von bis zu 35 Millionen Euro oder 7 Prozent des Jahresumsatzes.
Warum braucht KI überhaupt Regulierung?
KI trifft bereits heute viele Entscheidungen, die Einfluss auf das Leben von Menschen haben. Einige dieser Entscheidungen sind weitreichend, etwa wenn es um die Auswahl von Bewerbern oder die Vergabe von Krediten geht. Die Regulierung soll sicherstellen, dass KI sicher, fair, transparent und nachvollziehbar entscheidet, denn unreguliert kann KI durchaus voreingenommen oder unfair agieren – sei es, weil sie aufgrund verzerrter oder falscher Trainingsdaten nicht objektiv ist oder bewusst manipuliert wurde, um bestimmte Entscheidungen zu erzwingen. Verhält sich das KI-System wie eine „Black Box“, lassen sich seine Entscheidungen nicht nachvollziehen und überprüfen.
Wurde KI bisher nicht reguliert?
Auch in Ländern ohne dedizierte KI-Gesetze unterliegt KI gewissen Auflagen, und auch in der EU war KI vor dem EU-AI-Act nicht unreguliert. Viele Vorgaben finden sich in bereits bestehenden Gesetzen, etwa zum Datenschutz, und in branchenspezifischen Richtlinien und Verordnungen, etwa für den Finanzsektor. Hinzu kommen Standards und Empfehlungen internationaler Organisationen wie der UN, der OECD, der ISO und dem IEEE, die überwiegend ethische Leitplanken setzen. Darüber hinaus sind die Mitgliedsstaaten der EU natürlich an die Charta der Grundrechte der Europäischen Union gebunden, die eine Diskriminierung von Menschen verbietet, und die Mitgliedsstaaten des Europarats an dessen KI-Konvention, die sich auf den Schutz von Menschenrechten, Demokratie und Rechtsstaatlichkeit fokussiert.
Welche KI-Gesetze gibt es außerhalb der EU?
Dedizierte KI-Gesetze sind bislang noch die Ausnahme und decken oft nur sehr spezifische Sachverhalte ab. In China zum Beispiel dürfen Deepfakes nur mit Zustimmung der jeweiligen Personen erstellt werden und sind zu kennzeichnen. In Kalifornien müssen Chatbots und Social-Media-Bots sich als solche zu erkennen geben. Südkorea ist eines der wenigen Länder, das ein mit dem EU-AI-Act vergleichbares Gesetz besitzt, den AI-Basic-Act. Dieser macht strenge Vorgaben für „High-Impact KI“ und generative KI, verbietet allerdings keine Form von KI-Systemen und sieht deutlich niedrigere Strafzahlungen bei Verstößen vor.
Viele andere Länder arbeiten an dedizierten KI-Gesetzen und verfolgen dabei häufig einen risikobasierten Ansatz, beispielsweise Brasilien und Kanada. Der EU AI Act kann hier als Vorbild dienen und dazu beitragen, weltweit ähnliche Regelungen einzuführen, die es den Unternehmen erleichtern, ihre KI-Systeme global anzubieten und einzusetzen.
Welche Trends gibt es in der KI-Regulierung?
Es gibt allgemein einen Trend, KI stärker zu regulieren – sei es durch dedizierte Gesetze, Verordnungen und Richtlinien oder durch zentrale Empfehlungen für Behörden und Unternehmen. Noch sind dedizierte Gesetze die Ausnahme, aber viele Länder arbeiten bereits daran. Risikobasierte Ansätze wie in der EU dominieren und scheinen derzeit am besten geeignet, Menschen in lebenswichtigen Bereichen vor den negativen Auswirkungen von KI zu schützen. Darüber hinaus stehen die geplanten Gesetze und Richtlinien in der Regel im Einklang mit den OECD-Grundsätzen für KI, die unter anderem die Achtung der Menschenrechte, Transparenz, Sicherheit, Nachhaltigkeit und Accountability einfordern.
#Pegasystems