Mit den rasanten Fortschritten der künstlichen Intelligenz (KI) steht das Jahr 2025 an der Schwelle zu einer radikalen Neugestaltung der Cybersicherheitslandschaft. KI-Technologien werden von Cyberkriminellen und staatlichen Akteuren als Waffen eingesetzt, wodurch neue und ernsthafte Bedrohungen für die Cybersicherheit entstehen.
Die Einführung von KI-Technologien schreitet mit beispielloser Geschwindigkeit voran. ChatGPT beispielsweise erreichte nur 60 Tage nach seiner Einführung 100 Millionen Nutzer und verzeichnet inzwischen mehr als drei Milliarden Besuche pro Monat. Dieses explosionsartige Wachstum ist nicht auf ChatGPT beschränkt, auch andere KI-Modelle wie Claude, Gemini oder Midjourney erfreuen sich großer Beliebtheit. Dimension Market Research prognostiziert, dass der globale Markt für große Sprachmodelle bis 2033 ein Volumen von 140 Milliarden US-Dollar erreichen wird.
Verantwortungsvolle KI wird die Softwareentwicklung revolutionieren
KI wird die Softwareentwicklung grundlegend verändern. Wir bewegen uns von einfachen Code-Vervollständigungstools wie Github-Copilot hin zu vollständigen Code-Erstellungsplattformen wie CursorAI und Replit.com. Diese Fortschritte steigern die Produktivität, bergen aber auch erhebliche Sicherheitsrisiken. KI ermöglicht es Cyberkriminellen, vollständige Malware mit nur einer einzigen Eingabeaufforderung zu erstellen, und läutet damit eine neue Ära der Cyberbedrohungen ein.
Dieser Gefahr wird durch die Entwicklung verantwortungsbewusster KI begegnet. Dabei werden Schutzmechanismen in große Sprachmodelle (Large-Language-Models, LLMs) eingebaut, um deren bösartige Nutzung zu verhindern. Softwareentwickler und Anbieter von Cybersicherheit sollten eng zusammenarbeiten, um verantwortungsvolle KI zu fördern. Sicherheitsexperten verfügen über das Wissen, um Angriffsmethoden zu simulieren und neue Angriffstechniken zu antizipieren. Penetrationstester, White-Hat-Hacker und Red-Teams identifizieren Schwachstellen in Software, bevor Hacker sie ausnutzen können, und schützen sie proaktiv. Partnerschaften zwischen Software- und Cybersicherheitsanbietern sind erforderlich, um LLM-Modelle auf eine mögliche Bewaffnung zu testen.
Der Aufstieg von Multi-Agenten-KI-Systemen
Im Jahr 2025 werden Multi-Agenten-KI-Systeme sowohl für Angriffe als auch für Verteidigungszwecke aufkommen. Diese autonomen Systeme treffen Entscheidungen, führen Aufgaben aus und interagieren mit Umgebungen, oft im Namen von Menschen. Sie kommunizieren mit anderen KI-Agenten, Datenbanken, APIs, Anwendungen und mehr und passen sich auf Basis von Feedback an.
Angreifer nutzen sie für koordinierte, schwer erkennbare Angriffe, während Verteidiger sie für verbesserte Bedrohungserkennung, schnelle Reaktion und Echtzeit-Zusammenarbeit einsetzen. Multi-Agenten-KI-Systeme teilen Bedrohungsinformationen in Echtzeit und koordinieren Verteidigungsmaßnahmen, um Angriffe effektiver zu identifizieren und abzuwehren.
Ethische und regulatorische Herausforderungen
Mit der zunehmenden Verbreitung von KI werden auch die ethischen und regulatorischen Herausforderungen wachsen. Der EU-AI-Act tritt im Februar 2025 in Kraft, mit weiteren Bestimmungen ab August. Es wird erwartet, dass die Zahl der branchenspezifischen KI-Assurance-Frameworks zur Validierung der Zuverlässigkeit, der Vermeidung von Verzerrungen und der Sicherheit von KI zunehmen wird. Diese Plattformen werden die Erklärbarkeit von KI-Ergebnissen sicherstellen, schädliche oder verzerrte Ergebnisse verhindern und das Vertrauen in KI-gestützte Cybersicherheitstools fördern.
Fazit
Das Jahr 2025 wird ein Wendepunkt für KI und Cybersecurity sein. Während KI enorme Fortschritte ermöglicht, bringt sie auch erhebliche Herausforderungen mit sich. Enge Zusammenarbeit zwischen der Wirtschaft, Software- und Sicherheitsanbietern sowie Regierungen und Strafverfolgungsbehörden wird erforderlich sein, um sicherzustellen, dass diese mächtige Technologie nicht das digitale Vertrauen schädigt.
Von Danny Karpati, VP for AI Technologies bei Check Point