Nahezu alle Hacker sind der Ansicht, dass durch KI-Tools ein neuer Angriffsvektor entstanden ist

Dr. Martin J. Krämer, Security Awareness Advocate bei KnowBe4

Eine neue Umfrage unter Hackern zeigt, dass KI nicht nur Hackern hilft, effizienter zu werden, sondern dass KI selbst „reif für die Ausbeutung“ ist. Nur selten kann man einen Hacker fragen: „Was denken Sie?“, wenn es um Cyberangriffe, Cybersicherheitsbemühungen und die Zukunft geht, die er erwartet.

Der Bugcrowd-Bericht „2024 Inside the Mind of a Hacker Report“ (für den 1300 Hacker befragt wurden) enthält jedoch eine Fülle von Daten darüber, wie Hacker KI sehen und welchen Wert sie für sie haben.

  • 74 % der Hacker glauben, dass KI Hacken zugänglicher gemacht hat.
  • 86% glauben, dass KI ihre Herangehensweise ans Hacken grundlegend verändert hat.
  • 77% nutzen KI-Technologien zum Hacken.

Die letzten beiden Punkte stechen besonders hervor:

  • 82 % glauben, dass sich die KI-Bedrohungslandschaft zu schnell entwickelt, um sich angemessen schützen zu können.
  • 93 % glauben, dass Unternehmen, die KI-Tools einsetzen, Hackern einen neuen Angriffsweg eröffnet haben.

Die beiden letztgenannten Statistiken werden durch beobachtete Trends bei so einfachen Dingen wie der Zunahme von „gpt“-Betrug, gefälschten Domains und Phishing-Angriffen untermauert, die allesamt auf das wachsende Interesse von Unternehmen an der Nutzung generativer KI zur Beschleunigung ihres Geschäfts zurückzuführen sind.

Da Bedrohungsakteure gezielt KI-zentrierte Angriffsvektoren ausnutzen, kann schon eine Phishing-E-Mail, kombiniert mit dem Interesse des Empfängers an generativer KI, zu einem erfolgreichen Angriff führen. Unternehmen müssen daher ihre Mitarbeiter durch Sicherheitsschulungen auf diese neuen Bedrohungen vorbereiten und ihre Wachsamkeit fördern.

Human-Risk-Management wird angesichts neuer Risiken durch KI-basierte Angriffsvektoren immer wichtiger. Während KI-Tools einerseits Hackern neue Möglichkeiten bieten, Sicherheitslücken auszunutzen, bleiben Mitarbeiter oft die erste und effektivste Verteidigungslinie gegen solche Angriffe. KI kann durch gezielte Phishing-Attacken, Deepfake-Technologien oder die Automatisierung von Social-Engineering-Angriffen direkt auf die Schwachstelle Mensch abzielen. Genau hier setzt das Human Risk Management an: Durch kontinuierliche Schulungen und Sensibilisierungsmaßnahmen werden Mitarbeiter in die Lage versetzt, KI-basierte Bedrohungen zu erkennen und proaktiv darauf zu reagieren. So wird die menschliche Komponente zu einer aktiven Schutzschicht, die verhindert, dass Hacker generative KI und andere Technologien erfolgreich für ihre Angriffe ausnutzen.

#KnowBe4