Die meisten Unternehmen erkunden heute den Einsatz neuer KI-gestützter Technologien, um ihre Arbeitsabläufe und Prozesse zu verbessern, Daten zu analysieren und zusammenzufassen und Inhalte schneller als je zuvor zu erstellen. Möglicherweise nutzen Sie und Ihre Mitarbeiter bereits KI-Tools und -Frameworks für Aktivitäten wie die Durchführung von Recherchen, die Erstellung von Inhalten und die Lösung von Codierungsaufgaben.
Es ist jedoch wichtig, den Enthusiasmus Ihres Unternehmens für KI durch angemessene Richtlinien und Einschränkungen zu zügeln. Ein generelles Verbot von KI-Technologien könnte die geschäftlichen Anforderungen und Ziele untergraben. Wie können Sie also den Schutz sensibler Daten sicherstellen und dafür sorgen, dass die generierten Inhalte korrekt sind? Die Lösung beginnt mit der Entwicklung einer KI-Sicherheitsrichtlinie.
Eine starke KI-Sicherheitsrichtlinie ermöglicht es Ihrem Unternehmen, die Vorteile der KI zu nutzen, und schreibt gleichzeitig die Risikobewertungen und Sicherheitskontrollen vor, die zum Schutz sensibler Daten und zur Gewährleistung der inhaltlichen Richtigkeit erforderlich sind. Gleichzeitig müssen Sie sicherstellen, dass Ihre Anbieter, Lieferanten und andere Dritte über Sicherheitskontrollen verfügen, die Ihre kritischen Systeme und Daten ausreichend schützen.
In diesem Beitrag gehe ich auf KI-Sicherheitsrichtlinien ein, erkläre, wie KI-Sicherheitsrichtlinien auf Dritte angewendet werden können, und teile Schlüsselfragen zur Bewertung der KI-Sicherheitskontrollen Ihrer Anbieter und Lieferanten.
Was ist eine KI-Sicherheitspolitik?
Eine KI-Sicherheitsrichtlinie ist eine Reihe von Leitlinien für die Bewertung und Nutzung von Tools und Frameworks für künstliche Intelligenz in einer Weise, die den Einblick, die Kontrolle und den Datenschutz maximiert. Außerdem werden darin KI-Schwachstellen aufgezeigt und Maßnahmen zur Minderung ihrer potenziellen Risiken vorgestellt.
Mit einer gut konzipierten KI-Sicherheitsrichtlinie kann ein Unternehmen die Sicherheit und Integrität seiner KI-Systeme und aller von künstlicher Intelligenz verarbeiteten Daten schützen. KI-Richtlinien enthalten in der Regel Bestimmungen für:
- Schutz sensibler Daten durch Verschlüsselung und Zugriffskontrolle
- Sicherstellung des autorisierten Benutzerzugriffs über Authentifizierungs- und Autorisierungsmechanismen
- Aufrechterhaltung der Netzsicherheit durch Firewalls, Intrusion-Detection-Systeme und andere Instrumente
Eine KI-Sicherheitsrichtlinie ist in der Regel eine Erweiterung der allgemeinen Informationssicherheitsrichtlinie eines Unternehmens und der damit verbundenen Kontrollen, mit einigen gemeinsamen Konzepten hinsichtlich Datenschutz, Privatsphäre und Genauigkeit.
Was sind die Bestandteile einer KI-Sicherheitsrichtlinie?
Richtlinien für die Bewertung von Werkzeugen
Diese Richtlinien legen Arbeitsabläufe und Verfahren für Sicherheitsteams fest, die KI-Tools für den Einsatz in ihrem Unternehmen bewerten müssen. Sie umreißen die erforderlichen Datenschutzniveaus für verschiedene Arten von Diensten und zeigen Verfahren zur Überprüfung der Art und Weise auf, wie sensible Daten als KI-Trainingsinputs verwendet werden und/oder in KI-generierten Inhalten erscheinen können.
Quellcode-Richtlinien
Quellcode-Richtlinien betonen sichere Entwicklungspraktiken (z. B. Einhaltung von Kodierungsstandards, Durchführung regelmäßiger Code-Reviews) und legen Überwachungs- und Protokollierungsmechanismen fest, um das Systemverhalten zu verfolgen und Anomalien zu erkennen. Diese Richtlinien verlangen oft, dass die Organisation die Verwendung von Quellcode als Input für KI-Tools sowie die Verwendung von durch KI generiertem Code verfolgt.
Richtlinien für die Reaktion auf Vorfälle
Richtlinien zur Reaktion auf Vorfälle beschreiben Protokolle für den Umgang mit Sicherheitsverletzungen und betonen die Einhaltung von Industriestandards und Vorschriften, die solche Protokolle vorschreiben.
Datenspeicherung und Datenschutzrichtlinien
Richtlinien zur Datenaufbewahrung stellen sicher, dass die in KI-Tools und -Dienste hochgeladenen Eingabedaten innerhalb eines akzeptablen Zeitrahmens gelöscht werden. Auch Datenschutzaspekte müssen bewertet werden, da einige Regionen die Verwendung generativer KI-Tools aufgrund von Bedenken hinsichtlich der Erhebung und Verwendung personenbezogener Daten vorübergehend verboten haben.
Ethik-Richtlinien
Ethische Überlegungen und Sensibilisierungsschulungen werden in KI-Sicherheitsrichtlinien aufgenommen, um Vorurteile zu beseitigen, Verantwortlichkeit zu gewährleisten und eine Sicherheitskultur zu fördern. So können sie beispielsweise von den Nutzern generativer KI verlangen, dass sie die erstellten Inhalte auf Genauigkeit, Voreingenommenheit und anstößige Inhalte überprüfen und bearbeiten.
Anerkennung von AI-Halluzinationen und ähnlichen Risiken
KI-Sicherheitsrichtlinien sollten anerkennen, dass KI-Tools bekanntermaßen falsche, voreingenommene oder beleidigende Ergebnisse liefern können. Besonders besorgniserregend sind "KI-Halluzinationen", die auftreten, wenn generative KI-Tools Inhalte erstellen, die unerwartet, unwahr oder nicht durch Beweise und reale Daten untermauert sind. KI-Tools verfügen in der Regel auch nur über ein begrenztes Wissen über aktuelle Ereignisse in der realen Welt, was zu weiteren Ungenauigkeiten und Auslassungen in den generierten Inhalten führen kann.
Wie gelten die KI-Sicherheitsrichtlinien für Dritte?
Ihre KI-Sicherheitsrichtlinie sollte Standards für die Bewertung, Abschwächung und Überwachung der Risiken aller KI-Lösungen enthalten, die Daten für Ihr Unternehmen verarbeiten oder generieren - einschließlich derer, die von Ihren Drittanbietern, Lieferanten und Dienstleistern bereitgestellt und/oder verwendet werden. Es ist wichtig, sicherzustellen, dass die Tools und Dienste von Drittanbietern sensible Daten schützen, Eingaben bereinigen, um vertrauliche Informationen zu entfernen, und andere erforderliche Sicherheitskontrollen einhalten.
Es gibt drei primäre Möglichkeiten, KI-Sicherheitsrichtlinien in Ihrem Drittanbieter-Risikomanagementprogramm (TPRM) zu nutzen: Due-Diligence-Prüfung vor Vertragsabschluss, Vertragsabschluss mit Lieferanten und Lieferantenbewertung.
Due-Diligence-Prüfung vor Vertragsabschluss
Ihre KI-Sicherheitsrichtlinie sollte den Due-Diligence-Prozess bei der Bewertung potenzieller Anbieter und Lieferanten leiten. Durch die Bezugnahme auf die Richtlinie kann Ihr Unternehmen die Sicherheitskontrollen, Datenschutzmechanismen und Zugriffsprotokolle eines Anbieters systematisch bewerten. Auf diese Weise werden potenzielle Schwachstellen minimiert, indem sichergestellt wird, dass externe Parteien dieselben strengen Sicherheitskriterien erfüllen, die auch für Ihre internen Systeme gelten.
Lieferant Contracting
Vertragliche Vereinbarungen mit Anbietern und Lieferanten können durch AI-Sicherheitsrichtlinien ergänzt werden. Durch die Aufnahme von Richtlinien in Vereinbarungen legt Ihr Unternehmen klare Erwartungen hinsichtlich der Sicherheitsanforderungen, der Datenverarbeitungspraktiken und der Verfahren zur Reaktion auf Vorfälle fest. Durch diese Abstimmung wird sichergestellt, dass die von Anbietern bereitgestellten KI-Lösungen oder -Dienste die Sicherheitsstandards des Unternehmens einhalten, was zu einem sichereren und widerstandsfähigeren KI-Ökosystem beiträgt.
Bewertung des Anbieters
Bei der Bewertung von Anbietern kann Ihre KI-Sicherheitsrichtlinie als Referenzpunkt dienen, um deren Sicherheitspraktiken mit den definierten Standards Ihres Unternehmens zu vergleichen. Dies sorgt auch für Konsistenz bei der Festlegung von Sicherheitserwartungen in Ihrem Anbieter-Ökosystem.
Insgesamt dient eine KI-Sicherheitsrichtlinie als umfassender Rahmen für die Bewertung und Abstimmung der Sicherheitspraktiken von Anbietern und Zulieferern mit den strategischen KI-Zielen Ihres Unternehmens.
Bewertung der AI-Sicherheitskontrollen: 16 Fragen an Ihre Drittanbieter
In KI-Anbietern von Drittanbietern können versteckte Bedrohungen lauern, die möglicherweise nicht sofort erkennbar sind. Zu diesen Bedrohungen gehören Sicherheitsschwachstellen, potenzielle Datenschutzverletzungen, verdeckter bösartiger Code, Datenmissbrauch und Verzerrungen in Algorithmen - jede dieser Gefahren kann die Daten, den Ruf und die Abläufe Ihres Unternehmens gefährden.
Um diesen Risiken entgegenzuwirken, muss Ihr Unternehmen eine sorgfältige Bewertung seiner Drittanbieter durchführen. Diese Due-Diligence-Prüfung sollte Sicherheitsmaßnahmen, Datenschutzpraktiken und algorithmische Transparenz bewerten. Kontinuierliche Überwachung, robuste vertragliche Vereinbarungen und Notfallplanung sind ebenfalls entscheidend, um versteckte KI-Bedrohungen aufzudecken und abzuschwächen.
Im Dezember 2021 veröffentlichte Microsoft ein Framework zur Bewertung von KI-Sicherheitsrisiken, das Unternehmen dabei helfen soll, die Sicherheit von KI-Systemen zu prüfen, zu verfolgen und zu verbessern. Prevalent baute auf diesem Rahmenwerk auf und erstellte eine Umfrage mit 16 Fragen, die Sie verwenden können, um die KI-Sicherheitskontrollen zu bewerten, die von Ihren Anbietern und Lieferanten eingesetzt werden.
Nutzen Sie diese KI-Sicherheitsbewertung eines Drittanbieters, um:
- Sammeln Sie Informationen über den Stand der KI-Sicherheit in Ihrem Anbieter-Ökosystem.
- Durchführung einer Lückenanalyse und Erstellung eines Plans für die Zusammenarbeit mit Anbietern zur Behebung von Risiken.
- Führen Sie wiederholte, regelmäßige Bewertungen durch, um die Fortschritte bei der Sanierung im Laufe der Zeit zu verfolgen.
| Fragen | Mögliche Antworten |
|---|---|
| 1. Werden die Daten für das/die KI-System(e) aus vertrauenswürdigen Quellen gesammelt? | Wählen Sie eine aus:
a) Ja, die Organisation stellt sicher, dass die gesammelten Daten nur aus vertrauenswürdigen Quellen stammen. b) Die gesammelten Daten stammen nicht ausschließlich aus vertrauenswürdigen Quellen. c) Nicht zutreffend. |
| 2. Wurde eine Datenpolitik entwickelt, die den Schutz der Privatsphäre und den Schutz sensibler Datenarten umfasst? | Wählen Sie alle zutreffenden Punkte aus:
a) Es wurde eine formelle Datenpolitik festgelegt. b) Die Datenpolitik wird allen Mitarbeitern, die an der Nutzung oder Erstellung von KI-Systemen beteiligt sind, mitgeteilt und zugänglich gemacht. c) Die Daten werden mithilfe von Datenklassifizierungsetiketten klassifiziert. d) Keine der oben genannten Möglichkeiten. |
| 3. Gewährleistet die Organisation die sichere Speicherung von Daten entsprechend ihrer Klassifizierung? | Wählen Sie alle zutreffenden Punkte aus:
a) Die Organisation verwendet eine sichere Speicherung, die auf einem definierten Datenklassifizierungsprozess basiert. b) Die in KI-Systemen verwendeten Daten werden auf der Grundlage einer festgelegten Klassifizierungspolitik klassifiziert und geschützt. c) Der Zugang zu den Daten wird geprüft, und es wird eine förmliche Genehmigung der Zugangsanträge der Benutzer durchgesetzt. d) Die Datensätze sind versionskontrolliert und folgen definierten Änderungskontrollprozessen. e) Keine der oben genannten Möglichkeiten. |
| 4. Werden Datensätze angemessen nachverfolgt und vor der Verwendung durch einen kryptografischen Hash verifiziert? | Wählen Sie alle zutreffenden Punkte aus:
a) Die Organisation setzt eine rollenbasierte Zugriffskontrolle für Datensätze durch. b) Es werden regelmäßig Zugangsprüfungen durchgeführt. c) Es werden Schritte unternommen, um sicherzustellen, dass Drittanbieter von Ressourcen oder externe Parteien keinen Zugriff auf Testdatenbestände haben. d) Keine der oben genannten Möglichkeiten. |
| 5. Wie stellt die Organisation sicher, dass die Datenintegrität während des gesamten Lebenszyklus eines KI-Systems erhalten bleibt? | Wählen Sie alle zutreffenden Punkte aus:
a) Die Datensätze werden eindeutig identifiziert. b) Die Datensätze und ihre kryptografischen Beschreibungen werden an einer zentralen Stelle erfasst. c) Der Zugang zu den Datensätzen wird regelmäßig geprüft. d) Änderungen an Datensätzen werden vor der Übermittlung von der Geschäftsleitung genehmigt. e) Keine der oben genannten Möglichkeiten. |
| 6. Sind die Datenverarbeitungspipelines gesichert? | Wählen Sie eine aus:
a) Ja, die Organisation ergreift Maßnahmen zur Gewährleistung der Sicherheit ihrer Datenverarbeitungssysteme. b) Nein, die Organisation ergreift keine Maßnahmen zur Gewährleistung der Sicherheit ihrer Datenverarbeitungssysteme. c) Nicht zutreffend. |
| 7. Sichert die Organisation Teilmengen von Daten auf die gleiche Weise wie Datensätze? | Wählen Sie eine aus:
a) Ja, die Organisation wendet dasselbe Sicherheitsniveau und dieselben Datenkategorisierungsprozesse für Datenuntergruppen an. b) Nein, die Organisation wendet nicht dasselbe Sicherheitsniveau und dieselben Datenkategorisierungsprozesse für Datenuntergruppen an. c) Nicht zutreffend. |
| 8. Überprüft die Organisation ihren Musterausbildungscode in einem geeigneten Umfeld? | Wählen Sie eine aus:
a) Ja, die Organisation prüft und verwaltet den Modellcode in sicheren und dedizierten Umgebungen außerhalb der Produktion. b) Modellcode wird nicht formell in speziellen Umgebungen außerhalb der Produktion überprüft. c) Nicht zutreffend. |
| 9. Wird das Training des im KI-System verwendeten Modells unter denselben Bedingungen durchgeführt, die auch im Einsatz herrschen würden? | Wählen Sie eine aus:
a) Ja, die Organisation stellt sicher, dass die Schulung des Modells unter den gleichen Bedingungen wie in der Einsatzphase durchgeführt wird. b) Die Organisation führt die Schulung des Modells nicht unter denselben Bedingungen wie in der Einführungsphase durch. c) Nicht zutreffend. |
| 10. Enthält der Modellentwurf und der Trainingsalgorithmus eine explizite oder implizite Modellregulierung? | Wählen Sie eine aus:
a) Ja, die Regularisierung ist für den Modellentwurf und die Trainingsalgorithmen gewährleistet. b) Nein, die Regularisierung ist für den Modellentwurf und die Trainingsalgorithmen nicht gewährleistet. c) Nicht zutreffend. |
| 11. Werden die Modelle kontinuierlich neu trainiert, wenn neue Trainingsdaten in die Trainingspipelines fließen? | Wählen Sie eine aus:
a) Ja, die Organisation hat ein kontinuierliches Umschulungsprogramm eingerichtet, um neue Schulungsdaten zu testen und zu validieren. b) Nein, die Organisation hat kein kontinuierliches Umschulungsprogramm eingerichtet, um neue Schulungsdaten zu testen und zu validieren. c) Nicht zutreffend. |
| 12. Wie sichert die Organisation ihre KI-Systeme vor dem Einsatz? | Wählen Sie eine aus:
a) Für neue KI-Systeme, Upgrades und neue Versionen wurden formale Abnahmekriterien definiert und dokumentiert. b) Neue KI-Systeme, Upgrades oder neue Versionen werden mit formalen Tests implementiert. c) Die Organisation nutzt automatisierte Tools zum Testen von Informationssystemen, Upgrades oder neuen Versionen. d) Die Testumgebungen sind der endgültigen Produktionsumgebung sehr ähnlich. e) Die Häufigkeit, der Umfang und die Methode(n) für unabhängige Sicherheitsüberprüfungen sind dokumentiert. f) Keine der oben genannten Möglichkeiten. |
| 13. Wie sichert und verwaltet die Organisation das zugrunde liegende Netz, in dem das KI-System untergebracht ist? | Wählen Sie eine aus:
a) Gateway-Geräte sollen den Datenverkehr zwischen den Domänen filtern und den unberechtigten Zugriff blockieren. b) Richtlinien für eine sichere Konfiguration sind dokumentiert und werden regelmäßig überprüft. c) Die Netze sind im Einklang mit einer festgelegten Zugangskontrollpolitik voneinander getrennt. d) Es werden Anforderungen festgelegt, um die Nutzung von öffentlich zugänglichen Systemen, internen Netzen und kritischen Vermögenswerten zu trennen und zu beschränken. e) Keine der oben genannten Möglichkeiten. |
| 14. Wie protokolliert und überwacht die Organisation ihre KI-Systeme und die unterstützende Infrastruktur? | Wählen Sie eine aus:
a) Die Organisation verfügt über ein Ereignisprotokollierungssystem (z. B. eine SIEM-Lösung) zur Überwachung von Ereignis- und Sicherheitsprotokollen. b) Ereignis- und Sicherheitsprotokolle werden regelmäßig auf abnormales Verhalten überprüft. c) Es werden konsolidierte Berichte und Warnmeldungen zu Systemaktivitäten erstellt und überprüft. d) Protokollierung und Überwachung umfassen Speicher, Pipelines und Produktionsserver. e) Keine der oben genannten Möglichkeiten. |
| 15. Wie identifiziert und verwaltet die Organisation Sicherheitsvorfälle im Zusammenhang mit KI-Systemen oder mit Auswirkungen auf diese? | Wählen Sie eine aus:
a) Es ist ein formeller Prozess für die Meldung von Vorfällen in AI-Systemen eingerichtet. c) Es wurden formelle Verfahren zur Reaktion auf Vorfälle und zur Eskalation festgelegt. d) Die Verfahren zur Reaktion auf Zwischenfälle werden regelmäßig getestet. e) Keiner der oben genannten Punkte |
| 16. Verfügt die Organisation über Verfahren, die sicherstellen, dass KI-Systeme nach einem Vorfall wiederhergestellt werden können? | Wählen Sie eine aus:
a) Kritische AI-Vermögenswerte sind identifiziert und inventarisiert. b) Die Organisation hat einen formellen Plan zur Aufrechterhaltung des Geschäftsbetriebs entwickelt. c) Folgenabschätzungen umfassen die Planung der Auswirkungen des Verlusts kritischer KI-Systeme durch Angriffe. d) Für kritische KI-Systeme werden in regelmäßigen Abständen Business-Continuity-Tests durchgeführt. e) Keine der oben genannten Möglichkeiten. Nächste Schritte für das Management von KI-Risiken durch Dritte |
Nutzen Sie den obigen Fragebogen als Ausgangspunkt, um Risiken in den KI-Systemen Ihrer Anbieter und Lieferanten aufzudecken. Durch die proaktive Identifizierung und Verwaltung von KI-Risiken Dritter können Sie die Systeme und Daten Ihres Unternehmens schützen und gleichzeitig potenzielle Probleme im Zusammenhang mit Fairness, Transparenz und Verantwortlichkeit vermeiden. KI-Risikobewertungen von Drittanbietern schützen nicht nur Ihren Betrieb, sondern helfen auch bei ethischen Entscheidungen, der Auswahl von Anbietern und langfristigen Partnerbeziehungen.
Wenn Sie mehr darüber erfahren möchten, wie Prevalent Ihr Unternehmen bei der Bewertung der KI-Sicherheit von Anbietern und Lieferanten im Kontext des Gesamtrisikos Dritter unterstützen kann, fordern Sie noch heute eine Demo an
noch heute an.
Anmerkung der Redaktion: Dieser Beitrag wurde ursprünglich auf Prevalent.net veröffentlicht. Im Oktober 2024 übernahm Mitratech das KI-gestützte Risikomanagement für Dritte, Prevalent. Der Inhalt wurde seitdem aktualisiert und enthält nun Informationen, die auf unser Produktangebot, regulatorische Änderungen und Compliance abgestimmt sind.
