AI-Security-Report – kriminelle Geschäfte mit bösartigen KI-Modellen im Darknet

Check Point Software Technologies  hat seinen neuen AI-Security-Report veröffentlicht. Darin untersuchen die Sicherheitsforscher von Check Point Research (CPR), wie künstliche Intelligenz die Cyber-Bedrohungslandschaft verändert – von eigens für Hacker gebauten generativen KI-Modellen, also GPTs, im Darknet, über Deepfake-Angriffe, Data-Poisoning und Konten-Handel bis hin zur Instrumentalisierung generativer KI-Modelle für Cyber-Attacken und Ransomware allgemein.

Die wichtigsten Erkenntnisse aus dem AI-Security-Report in Kürze:

  • KI-Nutzung in Unternehmen: 51 Prozent aller Unternehmen nutzen monatlich KI-Services. In Unternehmensnetzwerken enthalten etwa 1,25 Prozent (1 von 80) aller KI-Prompts hochsensible Daten.
  • Kriminelle KI-as-a-service im Dark-Web: Der Spam- und Phishing-Dienst GoMailPro, integriert mit ChatGPT, kostet 500 US-Dollar (rund 442 Euro) pro Monat. KI-basierte Telefondienste für Betrugsmaschen kosten rund 20 000 US-Dollar (rund 17 662 Euro)oder werden für 500 US-Dollar (rund 442 Euro) Grundpreis plus 1,50 US-Dollar (rund 1,32) pro Minute
  • Handel mit KI-Konten hat stark zugenommen: Über Credential-Stuffing, Phishing und Infostealer gestohlene Zugangsdaten zu beliebten KI-Diensten wie ChatGPT werden gehandelt, um anonym bösartige Inhalte zu generieren und Beschränkungen zu umgehen.
  • KI-gestützte Malware automatisiert und vereinfacht Angriffe: Malware-Gruppen wie FunkSec setzen KI-Tools bereits in mindestens 20 Prozent ihrer Operationen ein, um Schad-Software zu entwickeln und gestohlene Daten effizienter auszuwerten.
  • Desinformationskampagne und KI-Manipulation (Poisoning): Das Moskauer Desinformationsnetzwerk Pravda produzierte allein 2024 rund 3,6 Millionen Artikel, um KI-Systeme zu manipulieren. Diese Desinformationen tauchten in führenden westlichen KI-Systemen bei etwa 33 Prozent der Anfragen auf.

So schnell wie künstliche Intelligenz (KI) in die Geschäftsabläufe von Unternehmen integriert wird, so brisant verändert sie auch die Entwicklung von Cyberbedrohungen. Dieselben Technologien, die Unternehmen helfen, ihre effizienter zu arbeiten und die Entscheidungsfindung zu automatisieren, werden von Hackern als Waffe eingesetzt. Die erste Ausgabe des CPR-AI-Security-Report untersucht, wie Cyber-Kriminelle nicht nur Mainstream-KI-Plattformen ausnutzen, sondern auch Tools entwickeln und verbreiten, die speziell für bösartige Zwecke entwickelt wurden. In einer immer mehr von KI geprägten digitalen Welt sollten Verteidiger bei der Sicherung von Systemen und Nutzern um die folgenden wachsenden Bedrohungen wissen:

 

1. Das Risiko von Datenlecks bei der Nutzung von KI

Eine Analyse der von Check Points GenAI-Protect gesammelten Daten zeigt, dass 1 von 80 GenAI-Prompts ein hohes Risiko für den Verlust sensibler Daten birgt. Die Daten zeigen auch, dass 7,5 Prozent der Eingabeaufforderungen – etwa eine von dreizehn – potentiell sensible Informationen enthalten, was kritische Herausforderungen für Sicherheit, Compliance und Datenintegrität mit sich bringt. Da Unternehmen zunehmend KI in ihre Abläufe integrieren, ist das Verständnis dieser Risiken wichtiger denn je.

 

2. KI-gestützter Identitätsdiebstahl und Social-Engineering

Werbebanner aus dem Darknet für einen Kontoverifizierungs- und Entsperrungsdienst (Quelle: Check Point Software Technology).

Social-Engineering ist nach wie vor einer der effektivsten Angriffswege. Mit der Weiterentwicklung künstlicher Intelligenz ändern sich auch die von Bedrohungsakteuren eingesetzten Techniken. Autonome und interaktive Deepfakes verschärfen die Gefahr von Social-Engineering, indem sie täuschend echte Imitationen von, aus Opfersicht, bekannten Personen möglich machen. Text- und Audio-Nachahmungen waren nur die erste Stufe und sind bereits so weit entwickelt, dass sie neue Texte in Echtzeit erzeugen können. Video-Imitationen in Echtzeit sind damit nur noch eine Frage der Zeit.

Identitätsüberprüfung auf der Grundlage visueller oder auditiver Hinweise wird durch die rasanten Fortschritte der technischen Möglichkeiten immer unzuverlässiger, so dass ein dringender Bedarf an mehrschichtiger Identitätsauthentifizierung besteht.

 

3. Vergiftung und Manipulation von LLM-Daten

CPRs Sicherheitsforscher haben zudem Bedenken hinsichtlich LLM-(Large-Language-Model)-Poisoning. Dabei handelt es sich um eine Bedrohung der Cyber-Sicherheit, bei der Trainingsdatensätze so verändert werden, dass sie bösartige Inhalte enthalten und KI-Modelle dazu veranlassen, die schädlichen Inhalte zu replizieren. Trotz der strengen Maßnahmen zur Datenvalidierung, die von großen KI-Anbietern wie OpenAI und Google ergriffen werden, gab es Fälle von erfolgreichen Vergiftungsangriffen, darunter das Hochladen von 100 kompromittierten KI-Modellen auf die Hugging-Face-Plattform (eine Open-Source-Plattform für KI-Modelle).

Zwar betraf Datenvergiftung bis dato in der Regel die Trainingsphase von KI-Modellen, doch dadurch, dass LLMs mittlerweile zunehmend in Echtzeit auf online verfügbare Informationen zugreifen, sind neue Schwachstellen entstanden. Dadurch entsteht ein Risiko, das als Abrufvergiftung (Retrieval-Poisoning) bekannt ist. Ein bemerkenswerter Fall betrifft das russische Desinformationsnetzwerk Pravda, das im Jahr 2024 rund 3,6 Millionen Artikel erstellte, um die Antworten von KI-Chatbots zu beeinflussen. Untersuchungen ergaben, dass diese Chatbots in etwa 33 Prozent der Fälle die falschen Darstellungen der russischen Zeitung Pravda wiedergaben, was die große Gefahr des Einsatzes von KI zu Desinformationszwecken unterstreicht.

 

4. KI-generierte Malware-Erstellung und Data-Mining

KI wird inzwischen im gesamten Lebenszyklus von Cyber-Angriffen eingesetzt – von der Code-Generierung bis zur Optimierung von Kampagnen. Tools, wie das KI-generierte DDoS-Modul von FunkSec und der benutzerdefinierte Chatbot im Stil von Chat-GPT, zeigen, wie Ransomware-Gruppen KI in Operationen integrieren – nicht nur zur Erstellung von Malware, sondern auch für die Automatisierung von Öffentlichkeitsarbeit und Kampagnenbotschaften. KI spielt auch bei der Analyse gestohlener Daten eine entscheidende Rolle.

Infostealer und Data-Miner nutzen KI zur schnellen Verarbeitung und Bereinigung umfangreicher Protokolle von Anmeldeinformationen, Sitzungs-Tokens und API-Schlüsseln. Dies ermöglicht eine schnellere Monetarisierung der gestohlenen Daten und eine präzisere Ausrichtung auf künftige Angriffe. In einem Fall warb ein Dark-Web-Dienst namens Gabbers Shop mit dem Einsatz von KI, um die Qualität gestohlener Anmeldedaten zu verbessern und sicherzustellen, dass sie gültig, organisiert und für den Weiterverkauf bereit sind.

Werbung für den „Gabbers Shop“ in einem der Darkweb-Foren.

5. Geknackte KI-Modelle als Cyber-Waffen

Hacker nutzen KI nicht mehr nur, sondern machen sie zu einem speziellen Werkzeug der Cyber-Kriminalität. Ein wichtiger Trend ist der Diebstahl und die Kommerzialisierung von LLM-Konten. Durch Credential-Stuffing und Infostealer sammeln Angreifer den Zugang zu Plattformen, wie ChatGPT und der API von OpenAI, und verkaufen ihn weiter, um Phishing-Köder, bösartige Skripte und Social-Engineering-Inhalte ohne Einschränkungen zu generieren.

Noch besorgniserregender ist der Anstieg von Dark-LLMs – böswillig modifizierte KI-Modelle wie HackerGPT Lite, WormGPT, GhostGPT und FraudGPT. Diese Modelle werden durch Jailbreaking ethischer KI-Systeme oder durch Modifizierung von Open-Source-Modellen, wie DeepSeek, erstellt. Sie wurden speziell entwickelt, um Sicherheitskontrollen zu umgehen, und werden in Dark-Web-Foren als Hacking-Tools vermarktet, oft mit Zugang über Abonnements und Benutzer-Support.

Der bösartige KI-Dienst WormGPT wird auf einem Telegram-Kanal beworben.

 

Was all das für IT-Sicherheitsexperten bedeutet

Der Einsatz von KI in der Internet-Kriminalität ist nicht mehr nur theoretisch. Er entwickelt sich parallel zur allgemeinen Einführung von KI und in vielen Fällen schneller, als sich traditionelle Sicherheitskontrollen anpassen können. Die Ergebnisse des AI-Security-Report von Check Point legen nahe, dass Verteidiger nun davon ausgehen müssen, dass KI nicht nur gegen sie selbst, sondern auch gegen ihre Systeme, Plattformen und die von ihnen verwalteten Identitäten eingesetzt wird. Sicherheitsteams sollten damit beginnen, KI-gestützte Abwehrmaßnahmen in ihre Strategien einzubauen – einschließlich KI-gestützter Erkennung, Threat-Intelligence-Systemen, die KI-generierte Artefakte identifizieren können, und aktualisierten Protokollen zur Identitätsüberprüfung, die Sprach-, Video- und Texttäuschungen berücksichtigen. Da KI weiterhin jede Ebene von Cyber-Operationen beeinflusst, ist der erste Schritt zur Sicherheit jedoch, über neue Gefahren informiert zu bleiben.

Info: Für einen tieferen Einblick in diese Trends – und die Strategien zu ihrer Abschwächung – lässt sich der AI-Security-Report via nachfolgendem Link Check Point Research AI Security Report 2025 herunterladen.

#CheckPoint