KI ist nur so gut wie die Daten, mit denen sie arbeitet – doch genau hier verbirgt sich ein Risiko. Confidential AI hingegen schützt Daten und Modelle direkt während der Verarbeitung. Liegt der Schlüssel für vertrauenswürdige KI also in der Cloud?
Wer die Potenziale von KI voll ausschöpfen will, benötigt relevante Daten. Dies gilt insbesondere für das Finetuning (Anpassung) von KI-Modellen oder für deren Inference (Anwendung) auf unternehmensspezifische Szenarien. Personenbezogene Informationen, interne Geschäftszahlen sowie geistiges Eigentum und andere Geschäftsgeheimnisse sind hierfür oft unverzichtbar, unterliegen aber strengen IT-Sicherheitsvorgaben.
Spagat zwischen Datenhoheit und KI-Nutzung
Die Verarbeitung der Daten – sei es zum Finetuning von Modellen oder bei der Inference – findet häufig in der Cloud statt. Denn der Aufbau eigener On-Premises-Infrastrukturen dafür ist komplex, teuer, zeitraubend und weniger skalierbar. An dem Punkt kommt das Thema Datensouveränität ins Spiel: Ein Aspekt, der bei vielen Unternehmen seit dem Aufkommen der Cloud hoch oben auf der Agenda steht. Selbst 2024 nannten noch 56 Prozent der befragten Unternehmen, die keine externen Rechenzentren nutzen, sicherheitstechnische Bedenken als Hauptgrund gegen die Cloud – so die Studie „Spillover-Effekte von Rechenzentren“ im Auftrag der unter dem Dach des eco Verbands gegründeten Allianz zur Stärkung digitaler Infrastrukturen.
Genau hier setzen neueste Entwicklungen der Security-Branche an: „Technologien wie Confidential AI ermöglichen es, selbst hochvertrauliche Daten in der Cloud zu verarbeiten, ohne dass der Cloud Provider Einblick erhält“, erläutert Prof. Dr. Norbert Pohlmann, im Vorstand des eco – Verband der Internetwirtschaft für das Ressort IT-Sicherheit zuständig. „Wovor Unternehmen einst aus gutem Grund zurückschreckten – die Auslagerung sensibler Daten in die Cloud – wird durch dieses neue Sicherheitskonzept zu einer realisierbaren Option für die zukunftssichere und vertrauliche Datenverarbeitung.“
Diese Fortschritte bedeuten, dass das, was einst als unüberwindbares Risiko galt, nun durch einen technologischen Ansatz gelöst wird. Confidential AI verspricht, was viele Unternehmen derzeit suchen: Innovationsfreiheit bei gleichzeitiger vertrauenswürdiger Kontrolle über Daten und Modelle. Die Kombination aus Datenschutz, IT-Sicherheit, Flexibilität und Wirtschaftlichkeit macht den Ansatz zu einem relevanten Baustein moderner KI-Strategien.
Confidential Computing meets AI
Confidential AI ist ein relativ neuer Ansatz im Bereich der Privacy Enhancing Technologies (PETs) und baut auf dem Prinzip Confidential Computing auf. Die Idee: Daten werden nicht nur bei Speicherung und Übertragung verschlüsselt, sondern auch während der Verarbeitung. Technisch möglich machen das sogenannte Trusted Execution Environments (TEE), hardwarebasierte, isolierte Bereiche innerhalb eines Prozessors. Diese sicheren Enklaven verhindern, dass unautorisierte Administratoren, Cloud Provider oder Dritte während der Verarbeitung der Daten darauf zugreifen können. Ganz nach dem Zero-Trust-Prinzip.
Vertrauliche KI-Nutzung geht weit über Datenschutz hinaus
Confidential AI überträgt dieses Prinzip auf KI-Modelle. Geschützt werden nicht nur die Daten, sondern auch Modellparameter, Logik und Ausgaben. Das erlaubt die Arbeit mit hochsensiblen Informationen und Modellen – selbst in der Public Cloud.
Ohne Confidential AI müssten sensible Daten vor dem Finetuning oder der Inference anonymisiert oder ausgelagert werden – was die Qualität der Ergebnisse einschränkt. Erst durch den geschützten Rechenprozess lassen sich echte, vollständige Datensätze nutzen, ohne regulatorische oder sicherheitsrelevante Kompromisse.
„Vertrauliche Trainings- und Inference-Daten sind das eine – doch der wahre Wert liegt oft im spezifisch angepassten KI-Modell selbst: seiner Struktur, seinen Gewichten, seinem Verhalten. Confidential AI schützt diese geistige Leistung vor Einsicht, Diebstahl oder Reverse Engineering – ein klarer IP-Schutz, der weit über klassischen Datenschutz hinausgeht“, so Pohlmann.
So vertraulich wie Ihr privater Safe
Im Unterschied zu klassischen Sicherheitskonzepten wie Firewalls oder E-Mail-Verschlüsselung wird bei Confidential AI der Schutz nicht durch Zugangsbeschränkungen allein gewährleistet, sondern durch technische Isolierung auf Prozessor-Ebene.
Ein Vergleich: Stellen Sie sich vor, sie buchen ein Hotelzimmer und möchten sicher sein, dass Ihre wertvollsten Gegenstände geschützt sind. Der Anbieter stellt das Zimmer, der Portier kennt die Buchung – aber den Safe bringen Sie selbst mit. Der Clou: Obwohl Sie externe Infrastruktur nutzen, haben nur Sie den Schlüssel, nicht das Personal, nicht das Hotel. Genauso bleibt bei Confidential AI der Zugriff auf Daten und Modelle selbst für den Cloud-Anbieter technisch ausgeschlossen – weder Betreiber noch Admins haben Zugriff auf den laufenden Rechenprozess.
On-Premises vs. Cloud – die alte, neue Leier
Für Unternehmen bedeutet das: Alle Informationen bleiben unter Kontrolle, obwohl sie extern verarbeitet werden. Um KI-Nutzung unter solchen Bedingungen zu ermöglichen – gerade in streng regulierten Branchen oder mittelständischen Unternehmen mit sensiblen Daten – kamen bisher nur On-Premises-Infrastrukturen in Frage. Diese gelten als sicher, sind aber, wie oben erwähnt, teuer, schwer skalierbar und wenig flexibel.
Mit Confidential AI entsteht eine neue Option: Der Datenschutz erreicht auch in der Cloud On-Premises-Niveau und wird ergänzt um höchsten IP-Schutz – bei gleichzeitig höherer Skalierbarkeit und geringeren Infrastrukturkosten. Anbieter wie enclaive bieten solche Sicherheitsfunktionen als modulare Softwarelösung an, die sich in bestehende Cloud-Dienste integrieren lässt. NVIDIA liefert die grundlegende Hardware- und Softwaretechnologie in seinen GPUs, die Confidential Computing auf dieser Ebene ermöglicht. Nutzer:innen können die Anwendung dann auf ihre Bedürfnisse zugeschnitten einrichten: etwa technische Rahmenbedingung an einen bestimmten Use Case wie das Finetuning eines internen KI-Modells anpassen.
„Unternehmen müssen nicht länger Kompromisse zwischen der Agilität und Skalierbarkeit der Cloud und dem Schutz ihrer sensiblen Daten eingehen“, sagt Andreas Walbrodt, CEO bei enclaive, „Die Fähigkeit, selbst hochvertrauliche Informationen sicher in der Cloud zu verarbeiten, verändert die Spielregeln für KI-Anwendungen grundlegend und eröffnet neue Möglichkeiten, die zuvor undenkbar waren.“
Interne Wissensquellen sicher nutzen: RAG und Confidential AI
Ebenfalls gut kombinierbar mit Confidential AI ist der Ansatz von Retrieval-Augmented Generation (RAG). Hierbei greift das KI-Modell auf firmeneigene Quellen zu, um präzisere Antworten zu generieren.
Durch die Kombination von RAG-Technologie und sicheren Enklaven lassen sich Dokumente, Datenbanken und interne Reports oder gar KI-Softwarecode nutzen, ohne sie offenzulegen. Die Inhalte bleiben verschlüsselt, der Zugriff technisch eingeschränkt – das Risiko eines Datenlecks sinkt deutlich.
Confidential AI: Ein neuer KI-Stern am Cloud-Himmel
Confidential AI ist keine Zukunftstechnologie mehr. Neben US-Hyperscalern wie Microsoft, Google oder Amazon investieren auch europäische Anbieter wie das Berliner Unternehmen enclaive in marktreife Lösungen. Erste Plattformen und Schnittstellen sind verfügbar. Dabei konzentriert sich der Einsatz derzeit auf stark regulierte Bereiche: Pharmaunternehmen können klinische Daten analysieren, ohne Patientenschutz zu gefährden. Banken modellieren Kreditrisiken mit sensiblen Kundendaten, Industrieunternehmen werten vertrauliche Produktionsdaten aus – alles in der Cloud, bei vollständiger eigener Kontrolle.
Was das für die kommenden Jahre bedeutet?
„Langfristig kann Confidential AI – überall dort, wo KI mit sensiblen Daten arbeitet – zum neuen Standard werden. Nicht als Alternative zur Cloud, sondern als deren notwendige Ergänzung“, sagt Walbrodt.
