Risiken und verdächtige Aktivitäten in KI-Workloads in Echtzeit identifizieren

Sysdig kündigte die Einführung von AI-Workload-Security an.  Die neueste Ergänzung der Cloud-native-Application-Protection-Platform (CNAPP) des Unternehmens wurde entwickelt, um aktive Risiken im Zusammenhang mit KI-Umgebungen zu identifizieren und zu verwalten.  Sie soll  Sicherheitsteams dabei helfen, verdächtige Aktivitäten in Workloads, die KI-Pakete enthalten, zu identifizieren, zu verstehen  und Probleme schnell zu beheben.

„Mit der Erweiterung der Sysdig-CNAPP um AI-Workload-Security reagieren wir auf die weit verbreitete Nachfrage nach einer Lösung, die den sicheren Einsatz von KI ermöglicht,  damit Unternehmen deren Leistungsfähigkeit nutzen und ihre Geschäftsprozesse  beschleunigen können. Mit AI-Workload-Security  sind Unternehmen in der Lage,  ihre KI-Infrastruktur zu verstehen und aktive Risiken identifizieren  zu können, wie Workloads, die in Gebrauch befindliche KI-Pakete enthalten, die öffentlich zugänglich sind und ausnutzbare Schwachstellen aufweisen. KI-Workloads sind ein Hauptangriffsziel für böswillige Akteure, und AI-Workload-Security ermöglicht es Verteidigern, verdächtige Aktivitäten innerhalb dieser Workloads zu erkennen und die unmittelbarsten Bedrohungen für ihre KI-Modelle und Trainingsdaten anzugehen“, sagt  Knox Anderson, SVP  of Product Management bei Sysdig.

Kubernetes hat sich zur bevorzugten Bereitstellungsplattform für KI entwickelt. Die Sicherung von Daten und die Abschwächung aktiver Risiken in containerisierten Workloads sind jedoch aufgrund ihrer Kurzlebigkeit von Natur aus schwierig. Das Verständnis bösartiger Aktivitäten und Laufzeitereignisse, die zu einer Verletzung sensibler Trainingsdaten führen können, erfordert eine Echtzeitlösung mit Laufzeittransparenz. Die  Sysdig-CNAPP basiert auf der Open-Source-Lösung Falco, dem Standard für die Erkennung von Bedrohungen in der Cloud. Sie ist für Cloud-native Laufzeitsicherheit, wie  Kubernetes-Cluster, konzipiert, unabhängig davon, ob sich diese Workloads in der Cloud oder vor Ort befinden.

Mit der Einführung von AI-Workload-Security in Echtzeit hilft Sysdig Unternehmen, Workloads in ihrer Umgebung mit führenden KI-Engines  und Softwarepaketen wie  OpenAI, Hugging Face, Tensorflow und Anthropic sofort zu identifizieren und zu priorisieren. Indem Sysdig erkennt, wo KI-Workloads ausgeführt werden, können Unternehmen ihre KI-Nutzung verwalten und kontrollieren – unabhängig davon, ob diese Nutzung offiziell ist oder ohne entsprechende Genehmigung erfolgt.  Sysdig vereinfacht außerdem die Triage und verkürzt die Reaktionszeiten durch die vollständige Integration von Echtzeit-KI-Workload-Sicherheit. Diese wird ergänzt um eine  Funktion für einheitliche Risikofeststellungen, die Sicherheitsteams eine einzige Ansicht aller korrelierten Risiken und Ereignisse bietet. Diese ermöglicht  einen effizienteren Workflow für die Priorisierung, Untersuchung und Behebung aktiver KI-Risiken.

 

Wachsende Gefährdung öffentlich zugänglicher Workloads

Sysdig fand heraus, dass 34  Prozent aller GenAI-Workloads, die derzeit eingesetzt werden, öffentlich zugänglich sind.  Das bedeutet, dass ein Workload über das Internet oder ein nicht vertrauenswürdiges Netzwerk zugänglich ist, ohne dass entsprechende Sicherheitsvorkehrungen getroffen wurden, was die von  GenAI-Modellen genutzten sensiblen Daten in akute Gefahr bringt. Die öffentliche Zugänglichkeit erhöht nicht nur das Risiko von Sicherheitsverletzungen und Datenlecks, sondern  eröffnet auch  Probleme bei der Einhaltung von Vorschriften.

Die heutige Ankündigung kommt zur rechten Zeit, da der Einsatz von künstlicher Intelligenz (KI) immer schneller voranschreitet und die Sorge um die Sicherheit dieser Modelle und der für ihr Training verwendeten Daten wächst. Eine kürzlich durchgeführte  Umfrage der Cloud Security Alliance  ergab, dass mehr als die Hälfte der Unternehmen (55 Prozent) planen, in diesem Jahr  GenAI-Lösungen zu implementieren. Sysdig fand außerdem heraus, dass sich der Einsatz von  OpenAI-Paketen seit Dezember fast verdreifacht hat. Von den  GenAI-Paketen, die derzeit eingesetzt werden, macht  OpenAI 28 Prozent aus, gefolgt von  Hugging-Face’sTransformers mit 19 Prozent und Natural-Language-Toolkit (NLTK) mit 18  Prozent.

Anteil der von Sysdig beobachteten, derzeit eingesetzten  GenAI-Pakete nach Anbieter:

OpenAI(28%), Hugging Face Transformers(19%) , Natural-Language-Toolkit/NLTK(18 %), SpaCy(12 %),  TensorFlow (11%), Keras(10%), Anthropic (>1%) und Theano(>1%).

Die Einführung von AI-Workload-Security steht auch im Einklang mit den bevorstehenden Richtlinien und dem zunehmenden Druck, KI zu prüfen und zu regulieren, wie dies in der  Executive Order der Biden-Administration vom Oktober 2023  vorgeschlagen wird und  mit den Empfehlungen der National Telecommunications and Information Administration (NTIA)  vom März 2024 übereinstimmt. Indem Sysdig AI-Workload-Security die öffentliche Exposition, ausnutzbarer Schwachstellen und Laufzeitereignisse hervorhebt, hilft es Unternehmen in allen Branchen, Probleme schnell zu beheben, bevor die KI-Gesetzgebung in Kraft tritt.

„Ohne angemessene Runtime-Insights  setzen KI-Workloads Unternehmen einem unnötigen Risiko aus. Bedrohungsakteure können Schwachstellen in laufenden Paketen ausnutzen, um auf sensible Trainingsdaten zuzugreifen oder KI-Anfragen und -Antworten zu verändern“, so Anderson weiter.  „Unternehmen müssen verbesserte Sicherheitskontrollen und Laufzeiterkennungen einrichten, die auf diese einzigartigen Herausforderungen zugeschnitten sind, und Sysdig hilft Kunden, diese ethischen Bedenken und blinden Flecken zu beseitigen, damit sie alle Vorteile der Effizienz und Geschwindigkeit nutzen können, die generative KI bietet.“

#Sysdig