LameHug – Erste dokumentierte KI-Malware

Mit „LameHug“ wurde erstmals eine Schadsoftware entdeckt, die ein Large-Language-Model (LLM) aktiv zur Laufzeit verwendet, um Systemkommandos in Echtzeit zu erzeugen. Die Kampagne wird mit hoher Wahrscheinlichkeit der russischen APT-Gruppe Fancy Bear (APT28) zugeordnet. Der Vorfall markiert einen Wendepunkt in der Entwicklung adaptiver Malware – und zeigt das disruptive Potenzial von generativer KI in der Cyberkriminalität.

 

KI-Malware: Von der Theorie in die Praxis

Die Integration von künstlicher Intelligenz in Schadsoftware galt bislang als Szenario für Proof-of-Concepts oder futuristische Thinktank-Berichte. Mit LameHug wird dieses Konzept Realität: Die Malware nutzt über die API von Hugging-Face das Open-Source-Modell Qwen 2.5‑Coder‑32B‑Instruct von Alibaba Cloud, um kontextabhängige Shell-Befehle dynamisch zu generieren – angepasst an das Zielsystem.

 

Angriffsszenario: Ukraine im Visier

Entdeckt wurde die Attacke vom ukrainischen Computer Emergency Response Team (CERT-UA) Anfang Juli 2025. Ziel der Phishing-Kampagne waren staatliche Stellen. Die kompromittierten E-Mails enthielten ZIP-Anhänge mit verschiedenen ausführbaren Dateien, darunter:

  • Додаток.pif (vermeintlicher Anhang),

  • AI_generator_uncensored_Canvas_PRO_v0.9.exe (offenbar ein LLM-Wrapper),

  • sowie ein Python-Skript image.py.

Die Angreifer bedienten sich kompromittierter E-Mail-Konten legitimer Regierungsinstitutionen, was auf eine tiefergehende Infiltration schließen lässt.

 

LameHug im Detail: So funktioniert die Malware

Die Architektur von LameHug zeigt ein deutlich höheres Maß an Modularität und Kontextsensitivität als klassische Schadsoftware. Die wichtigsten Komponenten:

1. System-Reconnaissance via LLM

Nach dem initialen Zugriff erfragt die Malware systemrelevante Informationen wie CPU, Speicher, Betriebssystemversionen – mithilfe durch das LLM generierter Befehle. Die Ergebnisse werden in einer Datei %PROGRAMDATA%\info\info.txt gesammelt.

2. Dynamische Dateisuche

LameHug durchsucht Benutzerverzeichnisse nach sensiblen Dokumenten (Office, PDF, TXT) und nutzt rekursiv generierte Shell-Kommandos, um Daten zu verschieben und zur Exfiltration vorzubereiten.

3. Datenabfluss

Die gesammelten Informationen werden via SFTP oder HTTP POST an externe Server übertragen. Die Kommunikation ist verschlüsselt, die verwendete Infrastruktur basiert teils auf kompromittierten legitimen Servern – was eine Detektion zusätzlich erschwert.

4. Keine feste Payload – adaptive Codegenerierung

Anstatt wie bei klassischer Malware vorab definierte Payloads auszuführen, fragt LameHug das LLM bei Bedarf nach Kommandos, um den Angriff flexibel anzupassen. Die Malware fungiert dabei als Interface zwischen Zielsystem und KI-Modell.

 

Sicherheitsimplikationen: KI als Angriffsvektor

Die Verwendung von KI bringt gravierende Veränderungen für klassische Verteidigungsstrategien mit sich:

  • Signaturbasierte Erkennung greift ins Leere, da Kommandos dynamisch erzeugt und nicht vordefiniert sind.

  • Erschwerte Attribution durch legitime Infrastruktur und semantisch variierende Kommandostrukturen.

  • Tarnung durch generische Kommunikation mit Plattformen wie Hugging Face – eine legitime Nutzung schwer von Missbrauch zu unterscheiden.

 

„LameHug ist ein Gamechanger. Adaptive, KI-gestützte Angriffe erfordern neue Paradigmen in der Erkennung und Reaktion.“– (CERT-UA, technische Analyse, Juli 2025)

 

Handlungsempfehlungen für Unternehmen

 

  • Monitoring auf API-Zugriffe erweitern, insbesondere zu KI-Diensten (z. B. huggingface.co).

  • E-Mail-Gateways härten, ZIP-Dateien mit mehrfach geschachtelten Executables blockieren.

  • Verhaltensbasierte Detection-Engines (EDR/XDR) mit Fokus auf ungewöhnliche PowerShell- oder WMI-Aktivitäten einsetzen.

  • Zero-Trust-Prinzipien umsetzen: Minimierung von Nutzerrechten, Netzwerksegmentierung, kontrollierte Ausführung unbekannter Software.