In diesem Artikel werden wir die drei wichtigsten Säulen des Schutzes von KI untersuchen und zeigen, wie zwei leistungsstarke Ansätze, Zero Trust Architecture (ZTA) und Data-Centric Security, zum Schutz von KI-Systemen eingesetzt werden können.
Lassen Sie uns zunächst zusammenfassen, was es bedeutet, KI zu schützen.
Ein KI-System ist ein maschinengestütztes System, das aus den Eingaben, die es erhält, ableitet, wie es Ausgaben erzeugen kann. Dazu werden Algorithmen und Computermodelle wie maschinelles Lernen (ML) und große Sprachmodelle (LLM) verwendet, um Daten und ihre Muster zu analysieren und Inhalte, Vorhersagen, Empfehlungen oder Entscheidungen zu erstellen.
Mit dem exponentiellen Wachstum der Datenerfassungsmöglichkeiten entstehen riesige Datensätze, die zum Training von KI-Systemen verwendet werden. Ein unbefugter Zugriff auf diese Systeme könnte ihre Schwachstellen ausnutzen und zum Abfluss von persönlichen, finanziellen oder geschäftlichen Daten führen. Techniken wie Prompt Injektion und Inferenzangriffe können KI-Modelle so manipulieren, dass sie vertrauliche Daten preisgeben, indem sie bösartige Prompts einbetten oder Details aus den Antworten des Modells ableiten. Darüber hinaus könnten einige von KI generierte Ergebnisse sensible Informationen wie geistiges Eigentum enthalten, die geschützt werden müssen.
Neben dem Risiko eines unbefugten Datenzugriffs besteht bei ML- und LLM-Systemen auch die Gefahr, dass sie kompromittiert werden, wenn die Modelle selbst oder die Trainingsdaten verändert werden. Durch Änderung der Modelle oder der Trainingsdaten kann ein KI-System so manipuliert werden, dass es ungültige oder sogar schädliche Ergebnisse liefert. Diese Art der Manipulation kann aufgrund der Komplexität solcher Modelle und der Undurchsichtigkeit der Entscheidungsfindung in KI-Systemen schwer zu erkennen sein.
Daher bedeutet der Schutz von KI, dass das KI-System, die vom System verwendeten Daten und die vom System erzeugten Ergebnisse geschützt werden müssen. ZTA und Data-Centric Security sind geeignete Ansätze, um diesen Anforderungen gerecht zu werden, indem alle Nutzer und Dateninteraktionen kontinuierlich überprüft werden und sichergestellt wird, dass die Daten im Ruhezustand, bei der Übertragung und bei der Nutzung gesichert sind, unabhängig davon, wo sie gespeichert oder verarbeitet werden.
1. Kontrolle des Zugriffs auf KI-Systeme und Benutzeraktionen mit ABAC
Die Attribute-Based Access Control (ABAC) ist eine dynamische Methode zur Verwaltung des Zugriffs und der Berechtigungen auf kontrollierte Ressourcen. Im Gegensatz zur traditionellen Zugriffskontrolle, die sich auf statische Rollen stützt, verwendet ABAC Attributen, die Benutzerrollen, Umgebungsbedingungen und den Kontext von Zugriffsanfragen umfassen können, um Berechtigungen zu erteilen. Diese Granularität ist in einer ZTA-Umgebung von entscheidender Bedeutung, in der Vertrauen niemals vorausgesetzt wird und jede Zugriffsanfrage überprüft wird.
Die Implementierung von ABAC beinhaltet die Definition von Richtlinien, die festlegen, welche Attribute vorhanden sein müssen, damit der Zugriff gewährt wird. Beispielsweise können nur Benutzer mit einer bestimmten Sicherheitsfreigabestufe in einem sicheren Netzwerk während der Arbeitszeiten auf das KI-System zugreifen. Sobald der Zugriff gewährt wurde, würden alle Benutzeraktionen, die von den autorisierten Aufgaben abweichen, wie z. B. die Manipulation von Trainingsdaten, ABAC-Richtlinien auslösen und den Benutzer daran hindern, unzulässige Änderungen vorzunehmen.
2. Schutz von ML- und LLM-Modellen und Geschäftsdaten
Da KI-Systeme große Mengen an Informationen aufnehmen, muss die Sicherheit sensibler Daten, die beim KI-Training und -Betrieb verwendet werden, unbedingt gewährleistet sein. Eine wirksame Methode, um dies zu erreichen, ist die Verwendung von Datenverschleierung und -trennung zum Schutz von Daten im Ruhezustand und von Daten in Verwendung. Durch die Segregation und Verschleierung von Daten können Unternehmen strengere datenzentrierte Kontrollen durchsetzen. Bei der Datentrennung werden die Daten nach ihrer Sensibilität und ihren Eigenschaften kategorisiert, um Zugriff zu gewähren. Bei der Datenverschleierung werden die Daten in ein Format umgewandelt, das ohne die entsprechende Berechtigung nicht lesbar ist, um sicherzustellen, dass die Daten selbst dann nicht verstanden werden können, wenn sie abgefangen werden. Die Maskierung verbirgt bestimmte Teile, wie z. B. persönliche Identifikatoren, während die Nutzbarkeit der Daten für Analyse- und Schulungszwecke erhalten bleibt.
Der Schutz von ML- und LLM-Modellen sowie der von ihnen verwendeten Daten umfasst die Verschlüsselung von Daten im Ruhezustand, um zu verhindern, dass böswillige Benutzer Datendateien verändern und die Ergebnisse von KI-Systemen beeinträchtigen. Durch die Verschlüsselung von Daten im Ruhezustand und deren Entschlüsselung nur bei Zugriffsanfragen von einem autorisierten KI-System kann die Integrität der KI-Modelle, der ihnen zugrunde liegenden Datensätze und der Systemausgaben gewahrt werden.
In einem KI-System für das Gesundheitswesen können beispielsweise Patientendaten aus Trainingsdatensätzen abgetrennt, verschleiert oder maskiert werden, um die Privatsphäre zu schützen und gleichzeitig dem KI-Modell zu ermöglichen, aus den Daten zu lernen. Diese Techniken stellen sicher, dass sensible Informationen immer geschützt sind, unabhängig davon, ob sich die Daten im Ruhezustand, bei der Übertragung oder bei der Verwendung befinden.
3. Schutz von KI-Ausgaben mit ABAC und DRM
Die Ergebnisse von KI-Systemen können ebenso wertvoll und sensibel sein wie ihre Eingaben und Prozesse. Der Schutz dieser Ergebnisse erfordert die Kontrolle des Zugriffs durch ABAC und die Anwendung eines dauerhaften Dateischutzes mit Enterprise Digital Rights Management (DRM).
Die Verwendung von ABAC zur Verwaltung des Zugriffs auf KI-Ergebnisse stellt sicher, dass nur autorisierte Benutzer die Ergebnisse anzeigen oder manipulieren können. So sollte beispielsweise ein KI-System, das Finanzberichte erstellt, diese Berichte nur Personen mit den entsprechenden Finanz- und Managementrollen zugänglich machen.
Darüber hinaus können DRM-Technologien eingesetzt werden, um Dateien mit KI-Ergebnissen, wie z. B. sensible Berichte und proprietäre Modelle, dauerhaft zu schützen. DRM kann steuern, wie eine Datei verwendet wird, einschließlich Beschränkungen für das Kopieren, die gemeinsame Nutzung und das Drucken, und so die unbefugte Verteilung und Verwendung verhindern. Durch die Integration von DRM mit ABAC können Unternehmen sicherstellen, dass der Schutz mit den Daten mitgeführt wird und die Sicherheit unabhängig vom Speicherort der Datei erhalten bleibt.
Zusammenfassung
Die Absicherung von KI erfordert einen vielschichtigen Ansatz, der ZTA-Prinzipien mit datenzentrierten Sicherheitsverfahren kombiniert. Durch die Kontrolle des Zugriffs mit ABAC, die Sicherung von Daten durch Segregation, Verschleierung und Maskierung sowie den Schutz von KI-Outputs mit ABAC und DRM können Unternehmen die Risiken effektiv mindern und die Sicherheit und Integrität ihrer KI-Systeme verbessern.