Generative KI nutzen ohne Datenschutzrisiken

Edgeless Systems, Spezialist für sicheres Confidential-Computing, veröffentlicht mit Privatemode-AI eine Lösung für Organisationen, die generative KI nutzen möchten, ohne Datenschutzrisiken einzugehen.
Privatemode-AI bietet sowohl eine KI-Chat-App als auch eine KI-API, die mit Ende-zu-Ende-Verschlüsselung arbeiten. Dadurch bleiben sämtliche Daten – von der Eingabe über die Verarbeitung bis zur Ausgabe – vollständig geschützt. Unternehmen können so generative KI-Modelle nutzen, ohne Sicherheits- oder Compliance-Risiken einzugehen.
Die Verarbeitung sensibler Daten durch generative KI-Dienste stellt Unternehmen vor eine Herausforderung: Einerseits bietet KI Effizienzvorteile, andererseits bestehen Risiken hinsichtlich Datenschutz und Datensicherheit. Bestehende Lösungen bieten zwei unzureichende Alternativen:
1. Cloud-basierte KI-Dienste nutzen und die Kontrolle über Daten abgeben.
2. Eigene KI-Infrastruktur betreiben, was mit hohen Kosten und erheblichem Verwaltungsaufwand verbunden ist.
Privatemode-AI bietet eine Alternative, die die Vorteile der Cloud mit durchgehender technischer Absicherung kombiniert.
“Bisherige KI-Dienste setzen auf vertragliche Regelungen und Security-Best-Practices, um Datenschutz zu gewährleisten. Als Gegenentwurf dazu basiert Privatemode-AI als erster KI-Dienst auf den Schutzmechanismen der Confidential-Computing-Technologie. Wir sind besonders stolz darauf, dies als europäisches Unternehmen geschafft zu haben”, kommentiert Dr. Felix Schuster, CEO und Co-Gründer von Edgeless Systems.
Confidential-Computing ist eine hardwarebasierte Sicherheitstechnologie, die eine geschützte Verarbeitung sensibler Daten ermöglicht. Privatemode-AI nutzt AMD-EPYC-CPUs und Nvidia-H100-GPUs, die diese Technologie unterstützen. In Kombination mit einer speziell entwickelten Softwarearchitektur bietet Privatemode-AI die folgenden Sicherheitsmerkmale:
  • Ende-zu-Ende-Verschlüsselung: Daten werden auf dem Endgerät verschlüsselt und sind zu keinem Zeitpunkt im Klartext zugänglich.
  • Vertrauliche Verarbeitung: Während der Verarbeitung in der Cloud bleiben die Daten auch im Arbeitsspeicher durchgehend verschlüsselt und sind so vor externen Zugriffen geschützt.
  • Ende-zu-Ende-Überprüfbarkeit: Kryptografische Zertifikate bestätigen die Integrität der sicheren Verarbeitungsumgebung. Die Zertifikate werden automatisch mittels Remote Attestation auf den Endgeräten überprüft.
Vereinfacht ausgedrückt: Privatemode-AI verarbeitet die Daten in einer „Black-Box-Architektur“. Die Daten liegen zu keinem Zeitpunkt im Klartext vor und sind weder für Edgeless Systems, den Cloud-Betreiber noch Systemadministratoren einsehbar. Auch Hacker, die sich Zugriff zur Cloud-Infrastruktur verschafft haben, haben technisch bedingt keinen Zugriff auf die Daten. Das KI-Modell selbst kann keine Daten preisgeben, diese nicht für das Training verwenden und sich diese auch nicht „merken“.
Privatemode-AI unterstützt verschiedene Open-Source-KI-Modelle. Zum Start ist „Meta Llama 3.3“ verfügbar. In Kürze wird „DeepSeek R1“ folgen. Damit wird es möglich sein, das vieldiskutierte chinesische Modell auf sichere Weise zu nutzen.
Der relevante Programmcode hinter Privatemode-AI wird demnächst auf der Plattform Github veröffentlicht (“Source available”), um die Nachvollziehbarkeit und Transparenz der Sicherheitsmechanismen zu gewährleisten.
Privatemode-AI kann ab sofort genutzt werden: App: 14-tägige Testphase, danach 20 €/Monat pro Nutzer (Download-Link). -API: 14-tägige Testphase mit 1 Mio. Tokens, danach 5 €/1 Mio. Tokens (Sign-up API).
#EdgelessSystems