
Kaspersky setzt sich daher für klare Leitlinien für die ethische Entwicklung und den Einsatz von KI ein, um Manipulation und Missbrauch vorzubeugen. Bereits im Jahr 2024 unterzeichnete das Unternehmen den AI-Pact der Europäischen Kommission – eine Initiative zur Vorbereitung auf das Inkrafttreten des AI Act der EU, dem weltweit ersten umfassenden Rechtsrahmen für Künstliche Intelligenz. Im Dezember 2024 präsentierte Kaspersky zudem seine KI-Leitlinien beim Internet Governance Forum (IGF) in Riad; zentrale Prinzipien darin: Transparenz, Sicherheit, menschliche Kontrolle und Datenschutz.
„Ethische KI ist die Grundlage für Vertrauen, regulatorische Konformität und nachhaltigen Unternehmenserfolg. Sie ermöglicht es, das Risiko von Datenpannen und KI-basierten Bedrohungen zu minimieren und zugleich regulatorischen Anforderungen wie dem EU-AI-Act gerecht zu werden“, erklärt Jochen Michels, Director Public Affairs Europe bei Kaspersky. „Unsere Leitlinien zur sicheren Entwicklung und Nutzung von KI sowie unsere Prinzipien für den ethischen Einsatz von KI im Bereich Cybersicherheit unterstützen Unternehmen dabei, die Vorteile der Technologie verantwortungsvoll und sicher zu nutzen – ohne die wachsenden Risiken aus den Augen zu verlieren.“
Verantwortungsvoller KI-Einsatz schützt Gesellschaft und Unternehmen
Transparenz, Sicherheit, Kontrolle und Datenschutz als Grundprinzipien
- Cybersicherheitsschulungen und -Awareness: Kaspersky hebt die Bedeutung der Unterstützung durch Führungskräfte und die fachliche, spezialisierte Schulung von Mitarbeitern hervor. Diese müssen durch regelmäßig und aktuelle Schulungen, die auch neue Risiken behandeln, ein Verständnis für KI-typische Bedrohungen entwickeln.
- Threat-Modelling und Risikoanalyse: Proaktives Threat Modelling (z. B. STRIDE, OWASP) identifiziert Schwachstellen frühzeitig. Kaspersky legt den Fokus auf Risiken wie Data Poisoning oder Modellmissbrauch.
- Sichere Infrastruktur (Cloud): Verschlüsselung, Netzwerksegmentierung, Zero-Trust-Prinzipien und regelmäßige Patches erhöhen die Cloud-Sicherheit.
- Lieferketten- und Datenschutz: Strenge Audits, Safetensors und umfassende Datenschutzrichtlinien minimieren Risiken durch AI-Tools von Drittanbietern.
- Tests und Validierung: Eine kontinuierliche Model-Validierung hilft, Datenverschiebungen oder gegnerische Angriffe zu erkennen. Kaspersky empfiehlt eine intensive Überwachung, die Aufteilung von Datensätzen und Überprüfung der Entscheidungslogik.
- Verteidigung gegen ML-spezifische Angriffe: Um vor Angriffen wie Prompt-Injection oder Adversarial Inputs geschützt zu sein, empfiehlt Kaspersky ein Training mit adversarialen Beispielen, Anomalieerkennung und Model-Destillation.
- Regelmäßige Sicherheits-Updates: Bug-Bounty-Programme und häufige Patches von AI-Tools reduzieren Schwachstellen und stärken die Resilienz.
- Regulatorische Konformität: Umsetzung internationaler Standards wie DSGVO und EU AI Act; regelmäßige Audits zur Überprüfung ethischer und rechtlicher Vorgaben.
- Transparenz: Offenlegung des KI-Einsatzes gegenüber Kunden; verständliche Erläuterung der Funktionsweise; Etablierung von Kontrollmechanismen zur Ergebnissicherung.
- Sicherheit: Der Cybersicherheitsüberprüfung über den gesamten Entwicklungs- und Implementierungsprozess eine Priorität einräumen; dedizierte Sicherheits-Checks und Red-Teaming vorsehen; Minimierung der Abhängigkeit von externen Trainingsdaten; mehrschichtige Schutzkonzepte einführen; Cloud-basiertens Lösungen mit entsprechenden Sicherheitsvorkehrungen Vorzug gewähren.
- Menschliche Kontrolle: Fachliche Aufsicht und Überwachung aller KI-/ML_Systeme durch Experten sicherstellen; Kombination von Algorithmen und menschlicher Expertise.
- Datenschutz: Datenschutz priorisieren; Reduzierung und Begrenzung der Datenverarbeitung; Pseudonymisierung oder Anonymisierung; Sicherstellung der Datenintegrität durch technische und organisatorische Maßnahmen.
#Kaspersky