KI gegen KI – Praktische und ethische Überlegungen

Künstliche Intelligenz (KI) entwickelt sich ständig weiter, und die Cybersicherheitslandschaft für Verteidiger und Angreifer setzt das Katz-und-Maus-Spiel zwischen ihnen fort. Unternehmen nutzen KI, um Anomalien zu erkennen, Sicherheitsreaktionen zu automatisieren und Bedrohungsdaten in Echtzeit zu analysieren. Cyberkriminelle hingegen nutzen KI, um ihre Taktiken zu verfeinern, Phishing-E-Mails überzeugender zu gestalten, Social-Engineering zu automatisieren und sogar Malware zu entwickeln, die sich anpasst, um der Erkennung zu entgehen. Das Ergebnis ist ein Wettrüsten zwischen KI und KI, bei dem beide Seiten ihre Tools ständig verfeinern.

Dieses Wettrüsten wird durch gut dokumentierte Probleme wie Spear-Phishing und automatisiertes Social-Engineering veranschaulicht, auf die im Folgenden näher eingegangen wird. Unternehmen müssen sich darüber im Klaren sein, dass KI, wie jede andere Technologie auch, keine narrensichere Lösung ist – sie ist ein Werkzeug, das verwaltet, überwacht und kontinuierlich bewertet werden muss. Dieselbe Technologie, die die Sicherheit stärkt, kann auch gegen sie eingesetzt werden. Die Herausforderung besteht nicht nur darin, mit KI-gesteuerten Angriffen, sondern auch mit fortschrittlichen Sicherheitsmaßnahmen, ständiger Weiterbildung und verantwortungsvoller Implementierung Schritt zu halten.

Im Folgenden werden Beispiele aus der Praxis betrachtet, die den Konflikt zwischen KI-Automatisierung und übermäßigem Vertrauen aufzeigen.

 

Smart-Contracts: Wenn KI Geschäfte abschließt

Smart Contracts, also intelligente Verträge, sind eines der besten Beispiele für KI-Fähigkeiten. Sie ermöglichen es zwei Parteien, Vereinbarungen zu treffen, und erleichtern nahtlose Transaktionen, ohne dass ein Notar benötigt wird. Wenn bestimmte Bedingungen erfüllt sind, werden diese Verträge automatisch ausgeführt. Es sei darauf hingewiesen, dass intelligente Verträge zwar fantastisch klingen, aber nicht ohne Probleme sind. Fehler im Code können zu Pannen bei der Vertragsausführung und damit zu finanziellen Verlusten führen. Wie bei jedem intelligenten Gerät gilt auch hier der Grundsatz „Garbage in, garbage out“ – wenn die Eingabedaten fehlerhaft sind, werden diese Verträge munter ausgeführt, was zu Chaos führt.

 

Einstellungsprozesse: Die KI hinter dem Lebenslauf

KI kann den Einstellungsprozess optimieren, indem sie zeitaufwändige Aufgaben automatisiert, was sowohl für Personalvermittler als auch für Bewerber von Vorteil ist. Eine sorgfältige Implementierung ist jedoch unerlässlich, um mögliche Fallstricke zu vermeiden. So setzen Personalvermittler KI ein, um Unmengen von Lebensläufen zu sichten, und lehnen dabei oft hervorragende Kandidaten ab, denen einfach nur ein Schlüsselwort in ihren Unterlagen fehlt.

Laut einer KnowBe4-Umfrage unter 1.001 HR-Fachleuten in Unternehmen mit mehr als 100 Mitarbeitern in Großbritannien haben 66 Prozent der HR-Fachleute von KI generierte Lebensläufe identifiziert, wobei ein erheblicher Teil davon betrügerisch war. Andererseits nutzen 36 Prozent der HR-Teams bereits KI-Tools, um das Screening von Bewerbungen zu optimieren, während 29 Prozent KI-Technologie zur Erstellung von Stellenbeschreibungen einsetzen. Infolgedessen haben sich Bewerber der KI zugewandt, um perfekt zugeschnittene Lebensläufe zu erstellen, und nutzen LLMs, um genau die Systeme zu überlisten, die sie bewerten sollen.

 

KI und Spear-Phishing

Eines der deutlichsten Beispiele für das Wettrüsten zwischen KI und KI ist Spear-Phishing. Generative KI-gestützte große Sprachmodelle (LLMs) ermöglichen es Angreifern, Phishing-E-Mails zu generieren, in denen die verräterischen Anzeichen früherer Betrügereien wie schlechte Grammatik und Rechtschreibung fehlen. Dies macht es Cyberkriminellen leichter, sich als Führungskräfte auszugeben, Mitarbeiter zur Preisgabe von Anmeldedaten zu verleiten oder sogar Benutzer zum Klicken auf Links zu verleiten. Auf der defensiven Seite analysieren KI-gesteuerte Sicherheitstools E-Mail-Muster, Netzwerk-Feeds und andere Sicherheitstools, um Anomalien zu erkennen und verdächtige Ereignisse zu markieren, bevor sie gefährlich werden. Mit dieser Fähigkeit haben die Angriffe sicherlich zugenommen, da die Branche seit 2023 einen Anstieg von fast 30 Prozent verzeichnet hat.

Mit Phishing- und Social-Engineering-Angriffen rückt auch das Spear-Phishing in den Fokus, bei dem Cyberkriminelle ihre Angriffe auf bestimmte Gruppen oder Einzelpersonen ausrichten. Die Durchführung von Spear-Phishing-Kampagnen erfordert die Erkundung des Ziels oder der Gruppe und die Verwendung von Open-Source-Intelligence-Tools (OSINT) und -Taktiken.

 

Ethische Erwägungen bei KI-Interaktionen

Was passiert, wenn KI ohne menschliches Eingreifen interagiert? Es ist so, als würde man jedem Benutzer eines Netzwerks Administratorrechte geben und auf das Beste hoffen. Die Verantwortlichkeit wird immer undurchsichtiger, wenn perfekt ausgearbeitete Algorithmen Entscheidungen mit realen Konsequenzen treffen. Wer zahlt die Rechnung, wenn etwas schief geht: die Programmierer, die KI-Anbieter oder die Maschinen selbst?

Es ist ein schmaler Grat zwischen der Verbesserung von Arbeitsabläufen und der Schaffung von Chaos. Wo ziehen wir die Grenze für den verantwortungsvollen Einsatz von KI in Situationen, in denen es um Menschenleben oder Existenzen geht? Da KI in verschiedenen Bereichen immer mehr an Bedeutung gewinnt, ist die Schaffung von Rahmenbedingungen für den ethischen Einsatz von KI von größter Wichtigkeit.

Das Hochladen nicht autorisierter Inhalte auf Plattformen wie ChatGPT oder Gemini, wie Vorlesungsfolien, medizinische Aufzeichnungen, Unternehmensstrategiepläne oder Firmware-Code, wirft erhebliche ethische und rechtliche Bedenken auf, da die unerlaubte Verbreitung von urheberrechtlich geschütztem Material zu erheblichen wirtschaftlichen Verlusten führt. So gehen der US-Wirtschaft jährlich mindestens 29,2 Milliarden US-Dollar durch Online-Piraterie verloren.

Darüber hinaus ergab eine Studie, dass 26 Prozent der Nutzer von Online-Inhalten innerhalb von drei Monaten auf mindestens eine illegale Datei zugegriffen haben, was die weite Verbreitung des unerlaubten Austauschs von Inhalten verdeutlicht. Diese Statistiken unterstreichen, wie wichtig es ist, die Rechte an geistigem Eigentum zu respektieren und sicherzustellen, dass nur die rechtmäßigen Eigentümer ihre Werke verbreiten. Die Integration von KI-Tools erfordert eine ethische Überprüfung, insbesondere im Hinblick auf urheberrechtlich geschütztes Material, da Unternehmen erhebliche Anstrengungen in die Entwicklung von geistigem Eigentum durch Forschung und Entwicklung investieren.

Aus pädagogischer Sicht betont das Europäische Netzwerk für Akademische Integrität (ENAI), dass KI zwar das Lernen verbessern kann, ihre Anwendung jedoch mit ethischen Standards in Einklang stehen muss, um die akademische Integrität zu wahren. Daher müssen Bildungseinrichtungen klare Richtlinien für die ethische Nutzung von KI aufstellen und sicherstellen, dass sowohl Studierende als auch Lehrkräfte sich der Folgen des Hochladens und Teilens von Materialien ohne entsprechende Genehmigung bewusst sind.

 

Fazit

Je ausgefeilter die von der KI generierten Inhalte werden, desto größer wird das Risiko von Voreingenommenheit und Diskriminierung. Transparenz, interpretierbare Algorithmen und Rechenschaftspflicht müssen zu den Grundpfeilern der KI-Entwicklung gehören. Wie Cybersecurity-Experten oft sagen: „Vertraue, aber überprüfe“.

James McQuiggan, Security Awareness Advocate bei KnowBe4