Künstliche Intelligenz – Fluch oder Segen?

Nachdem OpenAI den Generative Pre-trained Transformer ChatGPT der Öffentlichkeit in einer kostenfreien Version vorgestellt hatte, schien die Welt ab dem 30. November 2022 eine andere zu sein. Zwar hörte die Erde nicht auf zu rotieren, und es blieb bei der gewohnten Abfolge von Tag und Nacht, aber urplötzlich diskutierte gefühlt die halbe Menschheit über die Gefahren der künstlichen Intelligenz. Dabei war es wie immer, wenn sogenannte disruptive Technologien in das Bewusstsein einer breiten Öffentlichkeit rücken: Selbstverständlich existieren sie seit langem und plötzlich reden in allerlei Medien Menschen über ein Phänomen, von dem sie nicht wirklich viel verstehen.

Allein die Erfindung des Begriffs „KI“ geht in das Jahr 1956 zurück. Und selbst der erste Chatbot, die legendäre ELIZA, wurde bereits 1966 vorgestellt, um die Möglichkeiten der Interaktion von Menschen mit einer Maschine aufzuzeigen. Nichts wirklich Neues also. Warum nun der Hype um eine Technologie, die bereits seit Dekaden Bestandteil der technischen Innovation ist? Die Durchsetzung neuer Technologien gliedert sich gemeinhin in drei Phasen: Der Forschung und Grundlagenentwicklung, den Einsatz im B2B und schließlich die B2C-Phase, in der dem Konsumenten ein Produkt zu einem Preis offeriert wird, der erschwinglich ist, und dessen Bedienung selbst einem Laien die Möglichkeit gibt, es produktiv für seine eigenen Belange zu nutzen. So erging es der Einführung des persönlichen Computers, des Mobiltelefons, des Internets oder der Videotelefonie – allesamt Werkzeuge, die aus dem täglichen Leben nicht mehr wegzudenken sind. Und trotzdem: Hat die KI in Form von ChatGPT oder anderen Produkten eine andere Qualität, die Welt zu verändern? Ja und nein, meinen die Experten, die Netzpalaver zu ihrer Einschätzung befragt hat. Das Ergebnis ist ein überaus vielfältiges Stimmungsbild, das die unterschiedlichsten Aspekte beleuchtet.

 

Künstliche Intelligenz: Nicht wirklich neu

Viele, wenn nicht die meisten Hersteller setzen Modelle der KI und des maschinellen Lernens seit geraumer Zeit ein, um die Funktionalität ihrer Produkte zu verbessern. Die Gründe liegen auf der Hand. „KI verändert die Arbeitswelt in bemerkenswerter Weise“, sagt etwa Jens-Hendrik Jeppesen, Senior Director of Public Policy EMEA bei Workday. „Wir haben KI seit fast einer Dekade in unsere Produkte integriert, um das menschliche Potenzial aufzuschließen, die Effizienz zu steigern und die Anwendererfahrung zu verbessern.“ Das sind offensichtlich die prägenden Gründe für den Einsatz von KI in einer breiten Vielzahl von Anwendungen: Effizienz, Produktivität, Unterstützung von Problemlösungen. Es geht den Herstellern und ihren Kunden darum, Prozesse schneller, effizienter und kostengünstiger zu gestalten.

 

Auch Alois Reitbauer, Chief Product Officer und Head of Open Source bei Dynatrace verweist darauf, dass sein Unternehmen „KI sehr lange und sehr erfolgreich einsetzt, um etwa Probleme in Software-Systemen zu finden.“ Aber er erklärt auch, dass KI nicht gleich KI ist. „Es ist wichtig, zwischen den verschiedenen Einsatzbereich zu unterscheiden. Die kausale KI ermöglicht es, Probleme in Prozessketten zu erkennen, die prädiktive KI bietet eine Möglichkeit, die Zukunft auf Basis bestehender Daten vorherzusagen, während uns die generative KI dabei unterstützt, neue Lösungen zu finden.“ Das sind tatsächlich höchst unterschiedliche Aufgaben, bei denen es in der Praxis zunächst auch darum geht, erst einmal entsprechende Experten zu finden oder auszubilden. Kein leichtes Unterfangen in Zeiten des Mangels an IT-Spezialisten.

 

Während die Medien KI vor allem mit Einsatzbereichen wie selbstfahrenden Autos oder Fake-News in Verbindung bringen, haben andere Branchen das Potenzial erkannt und ganz selbstverständlich in ihre Lösungen eingebaut. Olaf Hagemann, Director of Systems Engineering bei Extreme Networks weist darauf hin, dass Machine-Learning und Artificial-Intelligence seit langem dabei mithelfen, Netzwerkinfrastrukturen effizienter und sicherer zu betreiben. „Wir verlagern ganz einfach Routineaufgaben auf die KI. Das setzt dringend benötigte Ressourcen frei und vermeidet Fehlkonfigurationen. Wir haben es in der Regel mit enormen Datenmengen zu tun. Mit Machine-Learning verwandeln wir die in Informationen, mit KI erzeugen wir daraus Wissen.“ Als Ergebnis steht die Möglichkeit einer verhaltensbasierten Anomaliedetektion.

 

Vielfältige Anwendungsfelder der künstlichen Intelligenz

Networking, Security, CRM oder ERP sind nur einige der Anwendungsbereiche, in denen KI und ML schon längst gängige Hilfsmittel sind. Und das in den unterschiedlichsten Branchen. Elena Simon, Geschäftsführerin von Gcore, sieht ein riesiges Potenzial für KI und hat dafür vor allem Branchen wie das Gesundheitswesen, Versicherungen oder den Finanzmarkt im Sinn. Während das Geschäftsfeld des Anwenders kaum begrenzt ist, kommt es für sie vielmehr darauf an, welche Strategie das Unternehmen letztlich bei der Implementierung verfolgt. „Potenzielle Anwender haben die Wahl, entweder eigene KI-Modelle zu benutzen oder auf vorhandene zurückzugreifen. Sie müssen sich auch die Frage stellen, ob sie eine eigene Infrastruktur aufbauen wollen oder lieber auf einen Provider setzen, der KI-as-a-Service anbietet.“

 

Kai Waehner, Field CTO bei Confluent, sieht den Einsatzbereich von KI derzeit vor allem in der automatisierten Sprachverarbeitung und der Generierung von Antworten. Etwa in Service-Desks, bei Kundengesprächen mit einem Chatbot oder bei der Moderation von Inhalten in sozialen Netzwerken. „Hier ist Datenstreaming notwendig, um Datenquellen zu integrieren, die Datenmengen zu verarbeiten und Vorhersagen in Echtzeit durchzuführen.“

 

Aber egal, in welcher Branche KI zum Einsatz kommt, am Ende basiert die Technologie auf der Qualität der bereitgestellten Daten, von denen die Ergebnisse der Folgeprozesse abhängen. „KI hat sehr viel mit Daten zu tun“, so Zac Warren, Chief Security Advisor EMEA bei Tanium. „Sind diese gut und richtig, dann ist KI hilfreich und effizient, sind sie fehlerhaft oder veraltet, dann sind die darauf aufbauenden Modelle unbrauchbar.“ Eben deshalb ist es notwendig, die qualitativ besten Informationen bereitzustellen, um die Modelle zu trainieren.

 

Unternehmen müssen also Strategien entwickeln, um die benötigten Datenmengen und Quellen für die Verbesserung der KI zu produzieren. Der Aufbau dieser Kompetenz erfordert hohe Kosten und ein entsprechendes Potenzial. „82 Prozent der Führungskräfte wollen die Vorteile der KI nutzen“, erläutert Jens-Peter Feidner, Geschäftsführer von Equinix Deutschland. „Aber die Hälfte ist sich durchaus bewusst, dafür nicht die notwendigen Voraussetzungen mitzubringen.“ Notwendig sind nach seiner Meinung nicht nur die Daten und Experten, sondern auch entsprechend ausgerüstete Rechenzentren, die im Idealfall selbst KI-Tools einsetzen, um die Nachhaltigkeit der Datenverarbeitung zu optimieren.

 

Dabei kann die KI selbst eingesetzt werden, um Datenbanken aufzusetzen und zu pflegen. „Die KI-basierte Code-Generierung sowie die Identifikation von Problemen können Schlüsselaufgaben bei der Entwicklung von Datenbanken vereinfachen. Auf diese Weise können Entwickler und Datenbankadministratoren ihre Arbeit rationalisieren“, erläutert Marc Linster, CTO von Enterprise DB. Allerdings, so gibt er zu bedenken, auch wenn sie einen Beitrag leistet, existierende Workflows zu verbessern, so bildet sie dennoch keinen vollständigen Ersatz für die menschliche Expertise. Menschen müssen sich noch immer in der Loop befinden, um sicherzustellen, dass der Code das tut, was er soll.

 

Künstliche Intelligenz schürt Zweifel und Ängste

Und damit zeigt sich, bei aller Effizienzsteigerung, auch eine erste Problemstellung auf, die mit dem Einsatz der künstlichen Intelligenz verbunden ist. Offenbar bestehen begründete Zweifel und Ängste, zum Beispiel bei den Mitarbeitern, die um ihre Jobs fürchten. „Führungskräfte sind in der Regel von den Möglichkeiten der KI begeistert“, weiß Martin Meyer-Gossner, Head of Solutions DACH bei Qualtrics zu berichten. „Aber Mitarbeiter haben Ängste bezüglich ihrer Rollen.“ Es ist die Aufgabe der Verantwortlichen, hier klare Aussagen zu treffen, meint er. „Sie sollten daran denken, dass das Versprechen vor allem darin liegt, bei der Arbeit glücklicher, gesünder und produktiver zu sein.“ Letztlich möchten alle Stakeholder wissen, was mit ihnen durch den Einsatz der neuen Technologien passiert. Das erfordert auch ein hohes Maß an Transparenz.

 

Und die Nutzung der KI hat Auswirkungen auf viele Stakeholder. Nicht nur die eigenen Mitarbeiter und Kunden, sondern auch eine gewaltige Zahl von Nutzern, die nicht wissen, was mit ihren Informationen im Hintergrund passiert. Das beginnt schon im Unternehmen selbst. „Es sind heute Tools verfügbar, die Content schneller und besser entwickeln als zuvor, die als digitale Assistenten dienen und die es Menschen ermöglichen, Dinge zu tun, zu denen sie zuvor nicht in der Lage waren“, erklärt Bogdan Botezatu, Director Threat Research bei Bitdefender. Nur – dazu müssen sie die Tools mit Informationen als Prompts füttern, die oftmals als vertraulich einzuschätzen sind. Normalerweise verstößt dies gegen die Unternehmensrichtlinien, zumal niemand sagen kann, was mit diesen Informationen passiert. Dabei muss nicht einmal unterstellt werden, dass die Anbieter der Werkzeuge mit den Daten Schindluder treiben. Nur ist eben auch hier ein erfolgreicher Hack nicht ausgeschlossen. „Heute steht jedes Unternehmen vor der Aufgabe, entsprechende Regeln für die Nutzung der KI zu etablieren“, lautet deshalb sein Rat.

 

Dr. Martin J. Krämer, Security Awareness Advocate bei KonwBe4, verweist zudem auf die ethischen Herausforderungen, die der Einsatz der KI stellt. Er hält diese Diskussion für wichtig und richtig und plädiert dafür, vor dem Einsatz der Tools genau zu analysieren, welcher potenzielle Schaden entstehen könnte, welche Gefahren darin für die Sicherheit lauern und wie es um die Nachvollziehbarkeit von Entscheidungen aussieht. „Und diese Herausforderung wird umso größer, je menschlicher die KI wird.“

 

Der Vergleich der Leistungsfähigkeit von menschlicher und künstlicher Intelligenz liegt auf der Hand und ist in der Sache selbst begründet. „KI ist ja wie ein wissbegieriges kleines Kind, das ständig mit Daten gefüttert und trainiert werden will“, erläutert Sascha Giese, Head Geek bei Solarwinds. Nur kann am Ende niemand kontrollieren oder nachvollziehen, auf welcher Datenbasis die Ergebnisse beruhen. Wünschenswert wäre es, Transparenz darin zu haben, wie, mit welchen Daten und mit welchen Datenmengen gefüttert wurde. Dazu ist es seiner Ansicht nach erforderlich, Dokumentationen anzulegen. „Es sollte möglich sein, die Quellen zu Rate zu ziehen, die ursprünglich zum Training benutzt worden sind.“

 

Künstliche Intelligenz erzeugt viele Gespenster

Und da zeigt es sich wieder, das Gespenst der Gefahren. Und die sind offensichtlich vielfältig und Stand heute kaum einzuschätzen. „Wir stehen ganz am Anfang einer neuen Entwicklung. Wir wissen, dass sie extrem disruptiv sein wird. Wir wissen, dass sie große Produktivitäts- und Effizienzsteigerungen hervorrufen wird. Aber wir wissen auch, dass sie eine ganze Reihe von Gefahren mit sich bringt“, weiß Marco Crueger, VP Sales bei Enreach. „Diese Gefahren zu kontrollieren und zu minimieren ist nicht zuletzt die Aufgabe des Gesetzgebers – denn schließlich kann nur dieser sicherstellen, ob ob wir es mit dem Terminator oder 3PO zu tun bekommen.

 

Auf die Notwendigkeit von Regulierungen verweisen entsprechend viele der Experten. Und die hat vielfältige Dimensionen. „Die Aufgabenstellungen liegen in der technischen Performance, in der kulturellen Immanenz sowie in der rechtlichen Relevanz“, führt Mark Neufurth, Lead Strategist bei Ionos aus. Er bemerkt aber auch, dass dies bei einer Technologie, die schnell, disruptiv und mit vielen Fragezeichen behaftet ist, schwierig sein wird. „Doch“, so sagt er, „wir haben mehr zu gewinnen als zu verlieren. Es gilt, einen Rahmen zu schaffen, aber die Chancen für Europa nicht abzuwürgen.“

 

Tatsächlich haben die europäischen Behören mit dem EU Data Act und dem EU AI Act bereits zwei Initiativen auf den Weg gebracht, die eben genau das Gegenteil von Abwürgen bilden, sondern nach der eigenen Selbstdarstellung als Motor für die Innovation und die Schaffung von Arbeitsplätzen dienen sollen. Die Notwendigkeit entsprechender Initiativen steht offensichtlich außer Frage. Das sieht auch Fabien Rech, SVP & GM EMEA bei Trellix in gleicher Weise. „Der EU AI Act ist eine notwendige Grundlage für die Etablierung einer Kontrolle des ethischen und sicheren Gebrauchs der neuen Techniken.“ Er verweist allerdings auch auf die Eigenverantwortung der Unternehmen, die Risiken zu minimieren und in diesem Zusammenhang auch auf verfügbare Tools für die Sicherstellung der Cybersecurity.

 

Und tatsächlich spielen die neuen Möglichkeiten vor allem im Bereich der Cybersecurity eine entscheidende Rolle. Sie stellen in der Hand von Kriminellen ein mächtiges Instrument und eine gefährliche Waffe dar, meint Robert Rudolph, Product Management Consultant bei Forenova. „Ein immer größerer Täterkreis benötigt heute keine langjährige Expertise mehr über Schwachstellen, Tools oder Netzwerke“ sagt er. Schließlich könne fast jeder halbwegs Interessierte damit entsprechenden Code schreiben oder perfekte Phishing-Mails in beliebigen Sprachen generieren lassen. „Andererseits profitiert natürlich auch die Abwehr von den Möglichkeiten, die Erkennungsrate von Angriffen zu erhöhen oder die Zahl der Fehlalarme zu reduzieren.“ SOCs profitieren nach seiner Meinung enorm von den Fähigkeiten der KI. Insofern plädiert er für eine Regulierung mit Augenmaß und einen Grundoptimismus  in die Vorteile der künstlichen Intelligenz.

 

Und? Fluch oder Segen?

Das sieht Edy Almer, Senior Product Manager bei Logpoint ähnlich. „Wird es schwieriger werden, Attacken zu erkennen, die von Hackern mittels Tools wie ChatGPT erzeugt wurden?“, fragt er. In jedem Falle wird es tougher werden, weil die schwachen Attacken abnehmen, die starken demgegenüber zunehmen würden. „Aber Werkzeuge wie ChatGPT helfen auch den Verteidigern, wenn die verfügbare Expertise genutzt, und entsprechende Tools als „CoPilot“ eingesetzt werden.“

 

„Mit ChatGPT ändert sich für die Profis auf beiden Seiten wenig“, meint Michael Veit, Security Evangelist bei Sophos. Der menschliche Experte werde durch die KI nicht ersetzt, sondern dabei unterstützt, die digitale Spreu vom Weizen zu trennen. Er könne sich nun auf das Wesentliche konzentrieren, um die wirklich bedrohlichen Fälle zu erkennen und zu stoppen. „Unternehmen sind gut beraten, auf eine Kombination von KI und menschlicher Intelligenz zu setzen.“

 

Ganz offensichtlich werfen die neuen Möglichkeiten der Künstlichen Intelligenz in der Hand einer unüberschaubaren Zahl neuer Nutzer viele Fragen auf. Die Antworten der Hersteller und Betreiber von IT-Infrastrukturen können diese Fragen in der Regel bezogen auf ihre eigenen Betätigungsfelder beantworten. Aber wie sieht es um das Große und Ganze aus? Fluch oder Segen?

„Machen wir uns nichts vor, die Büchse der Pandora ist geöffnet, und es hat noch nie geklappt, Technologie zu verhindern“, resümiert Mirko Oesterhaus, Geschäftsführer von Consulting 4IT. „Das alles wird erst richtig spannend, wenn wir Quantenrechner in ein paar Monaten in einem beliebigen Elektroladen kaufen können.“ Die Technologie wird in aller Zukunft mit uns sein, ist sein Fazit, und es wird die Aufgabe sein, jederzeit Herr darüber zu bleiben.

 

„Weder ist es ratsam, Technologiefetischisten zu vertrauen, noch ist es eine gute Idee, Fatalisten zu folgen und in Ängste zu verfallen“, meint Viacheslav Gromer, Gründer und Geschäftsführer von AITAD. „Wir sollten KI so für uns nutzen, dass es das Leben erleichtert.“ Also alles wie immer, nur auf einem höheren Niveau? SNAFU – Situation normal, all fucked up. Es gilt offensichtlich die immerwährende Aufgabe, das Chaos zu beherrschen.

 

#Netzpalaver