
Wie ein neuer Verhaltenskodex dazu beitragen könnte, KI-Risiken zu mindern
Inhaltsverzeichnis:
Die britische Regierung setzt stark auf KI. Angesichts der Lage der öffentlichen Finanzen und eines anhaltenden Rückgangs der nationalen Produktivität ist dies in vielerlei Hinsicht auch notwendig. Ein ehrgeiziges Aktionsplan für KI-Chancen Die im Januar angekündigte Initiative hat einiges zu bieten. Doch wo Chancen liegen, liegen auch Risiken.
Deshalb ist es ermutigend zu sehen, dass die Regierung auch konkrete Schritte unternimmt, um die Sicherheit des KI-Ökosystems zu verbessern. Angekündigt Nur zwei Wochen nach der Veröffentlichung des Aktionsplans wird ein neuer, weltweit einmaliger Verhaltenskodex Entwicklern, Systembetreibern und anderen Beteiligten dabei helfen, ihre KI-Systeme gemäß den bewährten Sicherheitspraktiken aufzubauen, einzusetzen, zu warten und zu überwachen. Man hofft, dass der Kodex schließlich die Grundlage für einen neuen internationalen ETSI-Standard bilden wird.
Warum wir es brauchen
Obwohl sich die Technologie rasch weiterentwickelt, kennen wir bereits einige der Hauptrisiken, die KI für Unternehmen darstellt, wenn sie nicht sicher konzipiert ist. Dazu gehören:
- Prompt-Injection-Angriffe, die es böswilligen Akteuren ermöglichen, integrierte Sicherheitsvorkehrungen zu umgehen, um große Sprachmodelle (LLMs) für schändliche Zwecke zu missbrauchen. Das Dark Web ist Berichten zufolge bereits überschwemmt mit „Jailbreak-as-a-Service“-Angeboten, die genau dies ermöglichen.
- Schwachstellen und Fehlkonfigurationen in KI-Systemkomponenten, die ausgenutzt werden könnten, um sensible Trainingsdaten oder Modelle zu stehlen oder zu „vergiften“. Solche Sicherheitslücken wurden bereits entdeckt entlang der gesamten Lieferkette, einschließlich Vektordatenbanken, Open-Source-Komponenten und LLM-Hosting-Plattformen.
- Denial of Service, wenn ein Angreifer einen ungewöhnlich großen Input in ein LLM einspeist
- Offenlegung sensibler Daten (z. B. Kundendaten) durch die Reaktion auf eine Benutzeraufforderung, unabhängig davon, ob diese unbeabsichtigt oder böswillig erfolgt
Tatsächlich erweitern moderne KI-Systeme die bereits breite Angriffsfläche für Cyberangriffe auf Unternehmen, darunter APIs, LLM-Modelle, Open-Source-Code, Trainingsdatensätze, Front-End-Schnittstellen und Cloud-Infrastrukturen. Das Risiko von Fehlverhalten steigt, je mehr KI-Systeme in Geschäftsprozesse und Anwendungen eingebettet werden. OWASP Top 10 für LLM-Bewerbungen ist ein guter Anfang. Aber es ist keine vollständige Liste der KI-bezogenen Sicherheitsrisiken.
Für wen?
Der Verhaltenskodex selbst gilt für eine Reihe wichtiger Interessengruppen. Dazu gehören:
- Softwareanbieter, die Kunden KI-Dienste anbieten
- Softwareanbieter, die KI intern nutzen, unabhängig davon, ob sie intern oder von Drittanbietern entwickelt wurde
- Normale Organisationen, die KI-Systeme für den internen Gebrauch erstellen
- Normale Organisationen, die KI-Komponenten von Drittanbietern nur für den internen Gebrauch verwenden
Nur „KI-Anbieter“, die Modelle oder Komponenten verkaufen, diese aber nicht tatsächlich entwickeln oder einsetzen, fallen wahrscheinlich nicht in den „Geltungsbereich“ dieses Kodex.
Was steht im Code?
Der Verhaltenskodex ist in 13 „Prinzipien“ unterteilt, die jede Phase des KI-Lebenszyklus abdecken, von Design, Entwicklung, Einsatz, Wartung bis hin zur Außerbetriebnahme. Diese sind:
- Bewusstsein schaffen von KI-Sicherheitsbedrohungen und -risiken durch Schulung des Cybersicherheitspersonals und der weiteren Mitarbeiterbasis.
- Entwerfen Sie KI-Systeme für Sicherheit, Funktionalität und Leistung basierend auf gründlicher Planung und Risikobewertung.
- Bedrohungen auswerten/modellieren und managen Sie Risiken, die mit der Nutzung von KI verbunden sind, durch Sicherheitskontrollen und kontinuierliche Überwachung.
- Menschliche Verantwortung ermöglichen und Überwachung von KI-Systemen.
- Vermögenswerte identifizieren, verfolgen und schützen durch umfassende Inventarisierungs- und Tracking-Tools, die gegenseitige Abhängigkeiten und Verbindungen berücksichtigen.
- Sichere Infrastruktur wie APIs, Modelle, Daten sowie Trainings- und Verarbeitungspipelines. Dies sollte eine Richtlinie zur Offenlegung von Schwachstellen sowie Pläne für Vorfallmanagement/Systemwiederherstellung umfassen.
- Sichern Sie die Software-Lieferkette durch Risikobewertungen, mildernde Kontrollen und Dokumentation.
- Dokumentieren Sie Daten, Modelle und Eingabeaufforderungen mit einem klaren Prüfpfad des Systemdesigns und Wartungsplänen nach der Bereitstellung. Eine Dokumentation wird erforderlich sein, um Bedenken hinsichtlich einer Datenvergiftung bei der Verwendung öffentlicher Trainingsdaten auszuräumen.
- Führen Sie entsprechende Tests und Bewertungen durch Abdeckung aller Modelle, Anwendungen und Systeme vor der Bereitstellung durch unabhängige Tester.
- Sichere Bereitstellung indem sie Endbenutzer darüber informieren, wie ihre Daten verwendet, abgerufen und gespeichert werden. Die Beteiligten sollten außerdem sicherheitsrelevante Updates, Anleitungen zu Verwaltung und Konfiguration sowie Hilfestellung bereitstellen, um die Auswirkungen von Vorfällen einzudämmen und abzumildern.
- Führen Sie regelmäßige Sicherheitsupdates durch, Patches und Schadensbegrenzung.
- Überwachen Sie das Systemverhalten durch Protokollieren von System- und Benutzeraktionen und Erkennen von Anomalien, Sicherheitsverletzungen oder unerwartetem Verhalten im Laufe der Zeit.
- Stellen Sie die ordnungsgemäße Entsorgung von Daten und Modellen sicher bei der Außerbetriebnahme oder Übertragung des Eigentums an einem Modell oder an Trainingsdaten.
Die Bausteine an ihren Platz bringen
Die gute Nachricht ist, dass bewährte Cybersicherheitsstandards Organisationen dabei helfen können, den Kodex einzuhalten. ISO 27001 wird im Dokument selbst zitiert, aber David Cockcroft, Manager für Informationssicherheit bei ISOQAR, behauptet, dass ISO 42001 am besten geeignet sei. Dieser relativ neue Standard soll Organisationen dabei helfen, ein Artificial Intelligence Management System (AIMS) einzurichten, zu implementieren, zu warten und kontinuierlich zu verbessern.
„Die grundlegenden Verbindungen zu ISO 42001 sind von Anfang an offensichtlich. Die Zielgruppe und die Interessenvertreter des Verhaltenskodex sind direkt mit dem organisatorischen Kontext und der Rolle der Organisation im KI-Lebenszyklus verbunden, die im Standard beschrieben wird“, sagt er gegenüber ISMS.online.
„Alle Grundsätze des Verhaltenskodex lassen sich den Bestimmungen und Kontrollen der Norm 42001 zuordnen.“
Andreas Vermeulen, Leiter KI bei Avantra, stimmt zu.
„Durch die Integration von ISO 42001 in aktuelle Sicherheitsstandards können Unternehmen die Einhaltung des Kodex verbessern und sicherstellen, dass KI-spezifische Sicherheits- und Betriebsrisiken angemessen berücksichtigt werden. Auf diese Weise wird die allgemeine Sicherheitslage der KI verbessert“, sagt er gegenüber ISMS.online.
„Großbritannien geht mit gutem Beispiel voran, indem es umfassende Richtlinien festlegt, die den sicheren Einsatz von KI-Technologien gewährleisten. Diese Bemühungen positionieren das Land als Vorreiter bei der verantwortungsvollen Entwicklung von KI-Systemen.“
Bei ISMS.online Wir haben bereits gefragt ob die ehrgeizigen KI-Pläne der Regierung auch Cyberrisiken in die Infrastruktur und Anwendungen bringen könnten, die für das vielgepriesene „Jahrzehnt der nationalen Erneuerung“ erforderlich sind. Daher ist es gut, dass neben den oft vagen Versprechungen eines technologiegetriebenen Wachstums auch einige nützliche Leitlinien veröffentlicht wurden.
„Der neue Verhaltenskodex, den wir in Zusammenarbeit mit globalen Partnern erstellt haben, wird nicht nur dazu beitragen, die Widerstandsfähigkeit von KI-Systemen gegen böswillige Angriffe zu verbessern, sondern auch ein Umfeld schaffen, in dem britische KI-Innovationen florieren können“, sagt Ollie Whitehouse, technischer Direktor des NCSC.
Wenn der Code ausgereift ist und sich zu einem internationalen Standard entwickelt, könnte er für einige Zeit zur De-facto-Grundlage für KI-Sicherheit werden.