KI ist nicht gleich KI: Wieso wird diese wichtige Unterscheidung nicht gemacht? Viacheslav Gromov, Gründer und Geschäftsführer vom Embedded-KI-Anbieter AITAD, äußert sich zu den Mängeln der aktuellen Diskussionen, wenn es um Künstliche Intelligenz (KI) geht. ChatGPT ist eines der dominierenden Themen der vergangenen Monate. Besonders in den ersten Monaten des Jahres 2023 kam kaum eine Nachrichtenagentur darum herum, über den Chatbot, welcher schon im November 2022 das Licht der Welt erblickte, zu berichteten. Waren die meisten Artikel zu Beginn noch vermehrt mit Humor versehen („ChatGPT scheitert an bayerischem Abitur“, Spiegel 10.02.2023), änderte sich die Klangfarbe der meisten Artikel sehr deutlich („Kann eine KI die Welt erobern?“, Tagesspiegel 05.04.2023).
Spätestens seit dem Elon Musk Ende März vor der Weiterentwicklung von KI warnte und Italien die Anwendung ChatGPT teilweise deaktivierte, scheint das Thema der „KI-Gefahr“ verstärkt in Mainstream-Diskussionen angekommen zu sein. Dies bestätigte sich unter anderem, als der Blogger Sascha Lobo im Rahmen der Fernsendung Markus Lanz am 3. Mai die potenziellen Gefahren von Deep-Fakes (und damit KI) verdeutlichte, indem er Olaf Scholz mithilfe einer Computerstimme falsche Worte in den Mund legen ließ.
Wie so oft stellt sich in den Medien und der Politik die Grundsatzfrage, ob künstliche Intelligenz gefährlich für den Menschen ist oder im Gegenteil dazu vielmehr hilfreich. Häufig wird im Rahmen dieser Diskussionen vergessen, dass KI nicht gleich KI ist. Durch diese Generalisierung der Technologie kann es allerdings zu Nachteilen kommen, die in der Folge auch den Wirtschaftsstandort Deutschland im empfindlichen Maße schwächen können.
Es ist wichtig zwischen generativer KI und diskriminativen KI zu unterscheiden
Bereits seit Jahren dominieren China und die USA die Entwicklungen und Innovationen im Bereich der künstlichen Intelligenz. Liegt es in den USA unter anderem an den großen Technik-Unternehmen, wie zum Beispiel Google oder Amazon, kann in China unter anderem der lockerere Umgang mit der Thematik Datenschutz als Anhaltspunkt für diese Vorreiterstellung angesehen werden. Diese Tendenzen setzen sich im Bereich der Akzeptanz und dem tatsächlichen Einsatz von künstlicher Intelligenz fort. So nutzen in Deutschland aktuell nur neun Prozent der Unternehmen künstliche Intelligenz (was einen Anstieg von drei Prozent seit dem Jahr 2020 bedeutet), 29 Prozent gaben hingegen an, dass sie eine KI-Nutzung im eigenen Unternehmen ausschließen, einen Einsatz dementsprechend aktuell noch gar nicht planen (Vgl. jeweils zitiert nach de.statista.com 2023). Dadurch verliert der Wirtschaftsstandort Deutschland international den Anschluss an die hochautomatisierte Konkurrenz.
Konkret könnten die Auswirkungen eines KI-Verbots folgendermaßen aussehen:
- Innovationshemmung: Ein Verbot oder strenge Beschränkungen für KI könnten die Innovation und Fortschritte auf dem Gebiet erheblich hemmen. KI-Technologien haben das Potenzial, große gesellschaftliche Vorteile zu bringen, die sich auf unterschiedliche Bereiche (wie Medizin, Mobilität oder Sicherheit) beziehen. Durch ein Verbot könnten wertvolle Möglichkeiten verpasst werden, komplexe Probleme zu lösen.
- Wettbewerbsnachteile: Einseitige Verbote könnten zu Wettbewerbsnachteilen für Länder oder Unternehmen führen, die KI nutzen möchten, um ihre Industrien voranzutreiben. Wenn ein Land KI-Technologien verbietet, während andere Nationen diese weiterentwickeln, besteht die Gefahr, dass es auf globaler Ebene abgehängt wird. Dies hätte Auswirkungen auf die Wirtschaft, den Arbeitsmarkt und die internationale Zusammenarbeit. Damit folgt auch fehlender Einfluss auf ethische Auswirkungen, zum Beispiel bei der Achtung von Datenschutzrichtlinien.
In diesem Kontext ist, wie so oft bei der öffentlichen Berichterstattung, die Generalisierung der Thematik KI zu sehen. Grundsätzlich gibt es keine einheitliche Definition des „Begriffes“ Künstliche Intelligenz. Dies liegt daran, dass die einzelnen KI-Ausprägungen sich deutlich voneinander unterscheiden. Das trifft nicht nur auf das maschinelle Lernen (ML) zu, bei dem zwischen dem überwachten und dem unüberwachten unterschieden wird, sondern auch auf die Arten der künstlichen Intelligenzsysteme.
Bei dem bereits oft erwähnten Chatbot ChatGPT handelt es sich um ein generatives KI-Intelligenzsystem. Damit beschreibt man jede Art von künstlicher Intelligenz, mit der neue Texte, Bilder, Videos, Audios, Codes oder synthetische Daten erstellt werden können. Im Gegensatz dazu gibt es auch die diskriminativen KI-Modelle, die keinen Content erzeugen, sondern vielmehr darauf spezialisiert sind, bestehende Datensätze zu beschreiben und in der Folge auszuwerten und zu interpretieren. Damit können unter anderem Krankheitsbilder von Patienten eingeordnet und eine Diagnose mit empfehlenswerter Behandlung ausgestellt werden. Die KI benötigt zur Auswertung dieser Daten deutlich weniger Zeit als der Mensch und ist in dieser Beziehung als unterstützender, nicht als erzeugender Faktor tätig. Ein KI-Moratorium würde die generative und die diskriminative KI in gleichem Maße treffen, obwohl die beiden Arten grundsätzlich unterschiedliche Auswirkungen auf ihre Umwelt haben.
AITAD aus Offenburg im Schwarzwald beschäftigt sich seit dem Jahr 2018 mit Embedded-KI, der neuesten Entwicklungsstufe im Bereich der künstlichen Intelligenz, die seit knapp drei Jahren dem reinen Forschungsstadium entwachsen ist. Diese Technologie unterscheidet sich elementar von den verbreiteteren Cloud- und Edge-Lösungen am Markt, was unter anderem dadurch deutlich wird, dass keine Netzwerkanbindung mehr notwendig ist und die Funktion der Anwendung auch im autarken Zustand gewährleistet ist. So können neue Funktionen in Geräten implementiert, Prozesse in Produktionsanlagen optimiert oder die Ausfallsicherheit in Fahrzeugen verbessert werden.
KI-Verallgemeinerung in Unternehmen, Politik und Gesellschaft an der Tagesordnung
Gromov kennt das Problem der KI-Verallgemeinerung: „Immer wieder stehen wir vor dem Problem, dass wir mit Unternehmen sprechen, die den Unterschied zwischen Cloud-, Edge- und Embedded-Lösungen nicht kennen und in diesem Kontext auch nicht zwischen generativer und diskriminativer KI unterscheiden. Die Gesellschaft und Politik müssen lernen dies zu unterscheiden.“ Laut Gromov ist dieser Umstand ein großes Problem, denn immer, wenn über KI als Gefahr gesprochen wird, werden sämtliche verschiedenen Ausprägungen in einen Topf geworfen und eine klare Abgrenzung der verschiedenen KI-Technologien findet schlicht und ergreifend nicht statt. Auch ein KI-Verbot sieht der Experte in diesem Rahmen kritisch: „Sollte es zu einem Verbot kommen, würde das zu einer enormen Schwächung der KI-Branche, aber auch der gesamten deutschen und westlicher Volkswirtschaft führen. Es wäre bei uns ein Stillstand nach Rasenmäher-Prinzip, wobei der asiatische Wettbewerb dies als willkommene Chance begreifen wird.“ Vor allem die diskriminativen KI-Modelle sollten vor einem Entwicklungsverbot geschützt werden, da sie das Leben der Menschen ohne Nebenwirkungen erleichtern und einen deutlichen Mehrwert bieten.
Info zur Person: Viacheslav Gromov ist Gründer und Geschäftsführer von AITAD. Das Unternehmen entwickelt elektronikbezogene künstliche Intelligenz (Embedded-KI), die in Geräten und Maschinen lokal und in Echtzeit definierte Aufgaben übernimmt. Er ist Verfasser zahlreicher Beiträge sowie diverser Lehrbücher im Halbleiterbereich. Gromov ist als Experte in verschiedenen KI- und Digitalisierungs-Gremien tätig, unter anderem von DIN und DKE sowie der Bundesregierung (DIT, BMBF). Jüngst erhielt AITAD sogar den Top100-Innovationspreis 2023 für mittelständische Unternehmen sowie den Embedded Award 2023 in der Rubrik KI.