Laut unseren Sicherheitsforschern in Israel setzen Hacker-Banden bereits künstliche Intelligenz (KI) ein, um ihre neuen Mitglieder zu trainieren. Außerdem werden sie von KI unterstützt, um Malware zu verbessern, Angriffe zu automatisieren und allgemein ihre kriminellen Tätigkeiten reibungslos zu gestalten.
Auf der anderen Seite haben die Unternehmensberater von McKinsey mittels einer Umfrage für das Jahr 2022 herausgefunden, dass 50 Prozent der befragten Unternehmen mindesten in einem Geschäftsbereich eine KI zur Unterstützung der Arbeit einsetzen – 2017 waren es nur 20 Prozent gewesen. Laut Forbes Magazin glauben sogar 60 Prozent der befragten Unternehmer, dass KI die Produktivität ihrer Firma allgemein steigern wird, wobei 64 Prozent an eine Steigerung der betrieblichen Produktivität glauben, während 42 Prozent sich auf die Verbesserung von Arbeitsabläufen beziehen.
Diese Gegenüberstellung zeigt schön, wie auch hier ein und dieselbe Technologie zu guten und schlechten Zwecken benutzt werden kann. Die Sorge, die derzeit aber die Bevölkerung am stärksten umtreibt: Kann KI lernen, welches Einsatzgebiet gut oder schlecht ist, um selbstständig einen Missbrauch zu verhindern?
Um dies beantworten zu können, muss man zuerst wissen, auf welche Weise sich Hacker von ChatGPT und Google-Bard Hilfe erhoffen:
- Automatisierte Cyber-Angriffe: Seit beide Tools am Markt sind, sehen unsere Sicherheitsforscher eine starke Zunahme von Bots, die infizierte Computer fernsteuern, und anderen automatisierten Systemen. Diese eignen sich vorzüglich für DDoS-Attacken, die mit enorm vielen Zugriffsanfragen einen Server, oder ein komplettes System, lahmlegen können. Auch aus diesem Grund nahmen die IT-Attacken im letzten Jahr, weltweit betrachtet, um 38 Prozent zu.
- Hilfe bei der Erstellung von Malware, Phishing-E-Mails, Deepfakes und der Konzipierung von Cyber-Angriffen: Hacker haben früh erkannt, dass ChatGPT ihnen Befehlszeilen für Malware erstellen oder Phishing-E-Mails schreiben kann – letztere in einem besseren Englisch oder Deutsch erstellt, als die Kriminellen das oft selbst könnten. Da ChatGPT und Google-Bard außerdem mit jeder Eingabe lernen, können sie sogar komplizierte Inhalte erstellen, wie Bilder, Videos oder sogar Tonaufnahmen. Hier kommt die Gefahr von Deepfakes ins Spiel. Dies meint Filme, die einen bestimmten Menschen so zeigen und sprechen lassen, wie man es von ihm gewohnt ist, obwohl es sich um eine Fälschung handelt. Moderne Technik ermöglicht hier die Fälschung der Mimik, Gestik und Stimme. Barack Obama, Joe Biden, Wolodymyr Selenskyj und Wladimir Putin sind schon Opfer solcher Deepfakes geworden.
- Klein-Kriminelle ohne große Programmierfähigkeit können zu Hackern werden: Mithilfe solcher KI-getriebener Chatbots können, wie oben erwähnt, Hacker-Banden ihre neuen Mitglieder trainieren, oder es können Menschen mit krimineller Energie schnell einen kleinen IT-Angriff basteln und starten. Dies führt zu einer Flut von, sozusagen, Mini-Attacken und von neuen Hacker-Gruppen.
Um diesen Missbrauch zu verhindern, haben die Hersteller von ChatGPT, die Firma OpenAI, zwar einige Sicherheitsvorrichtungen eingebaut und Länder von der Nutzung ausgeschlossen, aber dies hielt nicht lange stand: Zuerst wurden die Anfragesperren durch geschicktes Fragen des Chatbots umgangen, dann wurden die Länder-Restriktionen ausgehebelt, danach im großen Stil Premium-Konten gestohlen sowie verkauft und mittlerweile werden im Darknet sogar Klone von ChatGPT angeboten, in Form von API-Schnittstellen.
Eine Möglichkeit, um die KI selbst weniger anfällig für Missbrauch zu machen, ist das Training der KI an sich. Techniker sind sich einig, dass es unmöglich ist, einmal gelerntes Wissen aus einer KI zu entfernen, daher sollte von Beginn an eine Art von Ethik-Katalog der KI beigebracht werden, damit sie sich von selbst an gewisse Regeln hält. Dies wäre auch mit Gesetzen möglich, die manche Aktionen schlicht verbieten. Eine Petition, die von KI-Experten gestartet wurde und sogar von Elon Musk öffentlich unterstützt wird, fordert sogar, dass die Entwicklung von KI-Programmen gestoppt wird, bis Staaten und Verbünde, wie die Europäische Union, eigene KI-Gesetze eingeführt haben und ein Konzept für ein ethisches Training ausgearbeitet wurde.
Daneben könnte man versuchen, die KI davon abzuhalten, sich bestimmtes Wissen überhaupt anzueignen.
Somit zeigt sich: KI kann zum guten wie zum schlechten Zweck eingesetzt werden und es ist noch viel Arbeit notwendig, um sie wirklich alltagstauglich zu machen. Jedoch sollte die Möglichkeit des Missbrauchs durch Hacker nicht die positiven Errungenschaften und Möglichkeiten einer KI-Nutzung verdrängen. Es gilt schlicht, die KI-Programmierung durchdacht zu gestalten. Ein Erfolgsbeispiel ist die die IT-Sicherheit, denn diese profitiert bereits stark von speziell zugeschnittener KI, wie wir bei Check Point aus eigener Erfahrung bestätigen können.
#CheckPoint