Generative-KI verändert E-Mail-Cyberangriffe drastisch

Generative KI verändert Angriffe und macht sie deutlich raffinierter als in der Vergangenheit. Das zeigt der jüngste Fall – der Zusammenbruch der Silicon Valley Bank (SVB) und die daraus resultierende Bankenkrise. Die Angreifer nutzten die Situation sofort, um hochsensible Kommunikation zu fälschen. Dazu fingen sie legitime Mitteilungen ab, in denen die Empfänger angewiesen wurden, ihre Bankdaten für die Gehaltsabrechnung zu aktualisieren. Dieser konkrete Vorfall korrespondiert mit allgemeinen Zahlen: 62 % der Angestellten in Finanzdienstleistungsunternehmen haben in den letzten sechs Monaten eine Zunahme von betrügerischen E-Mails und SMS festgestellt.

Generative KI erfordert daher eine neue Abwehr-Strategie auf Basis von selbstlernender KI. Im Gegensatz zu allen anderen E-Mail-Sicherheitstools ist sie in Darktrace-E-Mails nicht darauf trainiert, wie „Angriffe“ aussehen, sondern lernt die normalen Verhaltensmuster in jedem einzelnen Unternehmen kennen. Mit einem tiefgreifenden Verständnis des Unternehmens und der Interaktionen der einzelnen Mitarbeiter mit ihrem Posteingang kann die KI für jede E-Mail bestimmen, ob sie verdächtig oder legitim ist. Insbesondere Mails des CEO werden damit besser geschützt.

Neue Daten von Darktrace zeigen, dass E-Mail-Sicherheitslösungen, einschließlich nativer, cloudbasierter und statischer KI-Tools, im Durchschnitt dreizehn Tage benötigen, bis ein Angriff auf ein Opfer erkannt wird. Dann sind Unternehmen fast zwei Wochen lang ungeschützt, wenn sie sich ausschließlich auf diese Tools verlassen. Social-Engineering – insbesondere bösartige Cyber-Kampagnen per E-Mail wie in dem oben genannten Bankenbeispiel – ist nach wie vor die Hauptursache für die Anfälligkeit eines Unternehmens für Angriffe. Der weit verbreitete Zugang zu generativen KI-Tools wie ChatGPT sowie die zunehmende Raffinesse der staatlichen Akteure bedeuten, dass E-Mail-Betrügereien überzeugender sind als je zuvor.

 

Die Studie hat noch weitere beunruhigende Fakten ans Licht gebracht:

  • 87 % der Arbeitnehmer weltweit sind besorgt, dass Hacker generative KI nutzen können, um betrügerische E-Mails zu erstellen, die von echter Kommunikation nicht zu unterscheiden sind.
  • Die drei wichtigsten Kommunikationsmerkmale, die Mitarbeiter bislang dazu veranlassen, eine E-Mail für einen Phishing-Angriff zu halten, sind: Aufforderung, auf einen Link zu klicken oder einen Anhang zu öffnen (72 %), unbekannter Absender oder unerwarteter Inhalt (61 %) und schlechte Rechtschreibung und Grammatik (62 %).
  • Ein Viertel (25 %) der Mitarbeiter ist in der Vergangenheit auf eine betrügerische E-Mail oder SMS hereingefallen.
  • 65 % der Mitarbeiter haben in den letzten sechs Monaten einen Anstieg der Häufigkeit von betrügerischen E-Mails und SMS festgestellt.
  • 87 % der Mitarbeiter sind besorgt über die Menge an persönlichen Informationen, die online über sie verfügbar sind und für Phishing und andere E-Mail-Betrügereien verwendet werden könnten.
  • Bei 87 % der Unternehmen verhindern die Spam-Filter fälschlicherweise, dass wichtige legitime E-Mails in ihren Posteingang gelangen.
  • Mehr als jeder dritte Befragte hat ChatGPT oder andere generative KI-Chatbots ausprobiert (36%).

Diese Zahlen stammen aus einer globalen Umfrage, die Darktrace im März 2023 in Zusammenarbeit mit Censuswide unter 6.711 Mitarbeitern in Großbritannien, den USA, Frankreich, Deutschland, Australien und den Niederlanden durchgeführt hat. Ziel war, Einblicke in das menschliche Verhalten im Zusammenhang mit E-Mails zu gewinnen und besser zu verstehen, wie Mitarbeiter weltweit auf potenzielle Sicherheitsbedrohungen reagieren, wie sie E-Mail-Sicherheit verstehen und welche modernen Technologien als Werkzeug zur Abwehr von Bedrohungen eingesetzt werden.

#Darktrace