
Werden die britischen KI-Wachstumspläne auch Cyber-Bedrohungen berücksichtigen?
Inhaltsverzeichnis:
Großbritannien ist seit über einem Jahrzehnt ein wirtschaftlich schwaches Land. Seit der Finanzkrise von 2008/9 ist die Produktivität kaum gestiegen, was das Land anfälliger für wirtschaftliche Schocks macht, die Unzufriedenheit der Bevölkerung schürt und zu einer Verschlechterung der öffentlichen Dienstleistungen führt. Die neue Regierung glaubt, eine Antwort zu haben: KI. Ein wichtiger neuer Aktionsplan für KI-Chancen im Januar enthüllt soll ein „Jahrzehnt der nationalen Erneuerung“ einleiten, indem „KI in die Adern dieser unternehmerischen Nation geleitet wird“.
Doch wie Experten warnen, eröffnet es auch neue Möglichkeiten für Angreifer, Daten zu stehlen, zu sabotieren, zu erpressen und zu stören. Der Schlüssel wird darin bestehen, sicherzustellen, dass die Organisationen, die sich zur Umsetzung des Plans verpflichtet haben, ihre KI-Infrastruktur und -Systeme von Anfang an unter Berücksichtigung der Sicherheit gestalten.
Was steht auf dem Plan?
Der Plan selbst, das die Regierung nach eigenen Angaben vollständig umsetzen wird, ist wahrlich nicht ohne Ambitionen. Es enthält acht Schlüsselelemente:
Mit KI-Infrastruktur den Grundstein legen
Hierzu gehört der Aufbau einer speziellen AI Research Resource (AIRR) mit fortschrittlichen KI-fähigen Computern und die Einrichtung von „AI Growth Zones“, um den Bau von Rechenzentren im privaten Sektor zu beschleunigen.
Datenbestände freigeben
Entwicklung einer National Data Library (NDL), die öffentliche Datensätze „sicher und ethisch“ für KI-Forscher und Innovatoren verfügbar macht. Zu diesen Plänen gehören auch der Aufbau einer Infrastruktur zur Datenerfassung im öffentlichen Sektor, die Finanzierung der Erstellung neuer hochwertiger Datensätze und Anreize für die Industrie, „private Datensätze zu kuratieren und freizugeben“.
Ausbildung und Fähigkeiten
Bewertung der Qualifikationslücke im KI-Bereich, Verbesserung der Vielfalt im Talentpool, Unterstützung der Hochschulbildung zur Erhöhung der Zahl der KI-Absolventen und Anwerbung qualifizierter Arbeitskräfte aus dem Ausland.
Regulierung, Sicherheit und Zusicherung
Die Entwicklung des AI Safety Institute, die Steigerung der Wettbewerbsfähigkeit des „britischen Text- und Data-Mining-Regimes“, die „dringende“ Finanzierung von Regulierungsbehörden zur Verbesserung ihrer KI-Expertise und die Sicherstellung, dass alle Förderabteilungen „sichere KI-Innovationen“ priorisieren. Der Plan nennt auch innovationsfördernde Initiativen wie regulatorische Sandboxes und den Aufbau staatlich geförderter „Qualitätssicherungstools“ zur Bewertung der KI-Sicherheit.
Übernehmen Sie einen „Scan > Pilot > Scale“-Ansatz
Vorwegnahme zukünftiger KI-Entwicklungen, konsequente und schnelle Pilotierung und Prototypisierung sowie Fokus auf Skalierung auf Dutzende oder Hunderte Millionen Bürgerinteraktionen in ganz Großbritannien. In dieser Phase wird auch auf die Notwendigkeit von Infrastrukturinteroperabilität, Code-Wiederverwendbarkeit und Open Sourcing hingewiesen.
Stärkung des öffentlichen und privaten Sektors
Die Regierung plant, ihr Gewicht und die neu aufgebaute digitale Infrastruktur zu nutzen, um neue Möglichkeiten für Innovatoren zu schaffen, ein Wissenszentrum für KI aufzubauen und das Interesse des Privatsektors am Ansatz „Scan > Pilot > Scale“ für schnelle Erfolge zu wecken.
Überwinden Sie Akzeptanzhürden bei den Benutzern
Verbessern Sie die Akzeptanz im öffentlichen und privaten Sektor durch sektorspezifische KI-Vorreiter und eine neue Industriestrategie.
Fortschrittliche KI
Schaffen Sie eine neue Regierungseinheit mit der Befugnis, Partnerschaften mit dem privaten Sektor einzugehen, um den Anteil Großbritanniens an zukunftsweisender KI zu maximieren.
Mehr als Lippenbekenntnisse?
Wie bei wichtigen Regierungsankündigungen üblich, müssen viele Details noch ausgearbeitet werden. Zwar wird „Sicherheit“ im Plan 14 Mal erwähnt, aber nur in sehr vagen Begriffen, etwa, dass die Regierung „sich verpflichtet fühlt, eine hochmoderne, sichere und nachhaltige KI-Infrastruktur aufzubauen“ oder dass sie „den Wert der Datenbestände des öffentlichen Sektors verantwortungsbewusst, sicher und ethisch freisetzen wird“.
Dennoch gibt es gute Gründe, sich über die Folgen Sorgen zu machen. Laut dem Weltwirtschaftsforum (WEF) Globaler Risikobericht 2025, „Negative Folgen von KI-Technologien“ wurden von Unternehmensführern und Experten als das sechstgrößte Risiko für das nächste Jahrzehnt eingestuft. Diese Folgen könnten durch schlecht konzipierte Modelle oder böswillige Aktionen wie Daten-/Modellvergiftung verursacht werden. Im letzteren Szenario verschaffen sich Bedrohungsakteure Zugriff auf KI-Systeme, um die Trainingsdaten zu beschädigen oder Modellparameter zu manipulieren, um entweder Sabotage zu betreiben oder bestimmte, unerwünschte Ergebnisse zu erzielen.
Sie könnten denselben Zugriff auf die KI-Infrastruktur nutzen, um vertrauliche Trainingsdaten von Unternehmen und Kunden oder sogar ein großes Sprachmodell (LLM) selbst zu stehlen, wenn es von einer Organisation für einen bestimmten Zweck optimiert wurde und daher selbst wertvolles geistiges Eigentum darstellt.
Leider zeigt die Forschung, dass die Schlüsselkomponenten von KI-Ansätzen der nächsten Generation wie Retrieval Augmented Generation (RAG) und autonomer „agentischer KI“ voller Sicherheitsmängel sind. Ein Bericht behauptet mehrere Schwachstellen in LLM-Hosting-Tools und -Plattformen wie llama.cpp und Ollama sowie in Vektordatenbanken wie ChromaDB gefunden zu haben. Es enthüllt auch zahlreiche öffentlich zugängliche Server und Instanzen, die mit solchen Tools verbunden sind, von denen viele keine Authentifizierung erfordern. Ganz zu schweigen von dem Risiko, das kompromittierte Anmeldeinformationen darstellen.
„Bei einem hohen Prozentsatz der Cyberangriffe werden gestohlene Zugangsdaten verwendet – Angreifer melden sich also an, anstatt sich einzuhacken“, sagt Andrew Rose, CSO von SoSafe, gegenüber ISMS.online. „Viele Unternehmen entwickeln KI-Chatbots, um ihre Mitarbeiter zu unterstützen, aber nur wenige haben das Szenario durchdacht, dass ihr Chatbot zum Komplizen eines Angriffs wird, indem er dem Angreifer hilft, vertrauliche Daten zu sammeln, Schlüsselpersonen zu identifizieren und nützliche Unternehmenseinblicke zu gewinnen.“
Experten warnen vor möglichen Angriffen
Auch andere Sicherheitsexperten haben wegen der Pläne der Regierung Alarm geschlagen. Michael Adjei, Leiter der Systemtechnik bei Illumio, warnt vor einer „versteckten Schicht“ proprietärer und unzureichend geprüfter KI-Technologie, die Bedrohungsakteure über die oben beschriebenen feindlichen Datenvergiftungsangriffe angreifen könnten.
„Die Herausforderung besteht darin, dass die verborgenen Schichten der KI über ‚gelernte Darstellungen‘ arbeiten, die für Sicherheitsteams schwer zu interpretieren und auf Schwachstellen zu überwachen sind. Dies erschwert die Erkennung manipulierter KI-Modelle, insbesondere in Systemen, die autonom oder in Echtzeit funktionieren“, sagt er gegenüber ISMS.online.
„Die KI-Lieferkette birgt weitere Risiken. Kompromittierte Daten, Trainingsumgebungen, Software oder Hardware von Drittanbietern können ganze KI-Systeme gefährden. Angreifer könnten beispielsweise bösartige Daten in Trainingsdatensätze einschleusen und so Verzerrungen oder Schwachstellen in KI-Modellen verursachen.“
Der Plan der Regierung bezieht sich auf Open-Source-Software, ein besonderes Anliegen der Lieferkette angesichts der gut dokumentierte Sicherheitsherausforderungen der Branche.
Bridewells CTO Martin Riley hat Erfahrung im Entwurf und Betrieb von Rechenzentren. Er warnt, dass „der Markt für Rechenzentren nicht gut reguliert ist und die Cybersicherheit dieser Einrichtungen nicht ausgereift ist“. Er warnt auch vor dem NDL.
„Das NDL wird in erster Linie darauf abzielen, sicherzustellen, dass der private Sektor innovativ sein kann, um den öffentlichen Sektor zu unterstützen. Die strengen Vorschriften in Bezug auf Daten, Anonymisierung und Schutz von Einzelpersonen werden daher mehrere Herausforderungen für die Cybersicherheit mit sich bringen“, sagt Riley. „Welche Cybersicherheitsanforderungen gelten für diejenigen, die auf das NDL zugreifen und seine Daten verwenden möchten?“
Rose von SoSafe wünscht sich einen stärkeren Fokus auf die Unternehmensführung.
„Ich würde mir wünschen, dass die Regierung noch einmal betont, dass KI bestehende Vorschriften einhalten muss, wie etwa Datenschutzstandards. Es wäre klug, auf Qualität und Kontrolle der Eingabedaten zu bestehen, um eine qualitativ hochwertige Ausgabe ohne Verzerrungen zu gewährleisten. Dies wird jedoch zu einer Herausforderung, wenn die Datensätze umfangreich und weitreichend werden und aus vielen Quellen stammen“, erklärt er.
„Der Schlüssel liegt darin, darauf zu bestehen, dass Unternehmen, die KI einsetzen, einen Governance- und Aufsichtsausschuss einrichten. Dieser sollte eine Bestandsaufnahme darüber verlangen, wo KI eingesetzt wird und welchen Umfang ihre Verantwortung hat. Unterstützt wird dies durch Risikobewertungen des potenziellen Schadens, der durch fehlerhafte Ergebnisse oder Ausfälle verursacht werden kann, sowie durch Wiederherstellungspfade für etwaige Ausfälle oder Verstöße.“
ISO 42001 als Rettung
Die Regulierungsbehörden werden eine wichtige Rolle dabei spielen, sicherzustellen, dass die Ambitionen der Regierung sicher, zuverlässig und ethisch umgesetzt werden. Das AI Safety Institute wird eine gesetzliche Einrichtung, die Förderabteilungen werden finanziell unterstützt, um „ihre KI-Fähigkeiten auszubauen“, und in den Leitlinien für diese Regulierungsbehörden wird der Schwerpunkt auf „sichere KI-Innovation“ gelegt.
Es bleibt abzuwarten, welche neuen Regeln sich daraus ergeben. Es gibt jedoch bereits Best-Practice-Standards, die KI-Entwicklern und -Anwendern dabei helfen können, sich in den künftigen regulatorischen Rahmenbedingungen zurechtzufinden. ISO 42001 soll beispielsweise dazu beitragen, die verantwortungsvolle Nutzung und Verwaltung von KI-Managementsystemen voranzutreiben.
„Es bietet Richtlinien für den sicheren Einsatz von KI und hilft Entwicklern, Mechanismen zur Erkennung ungewöhnlichen Verhaltens oder unerwarteter Ergebnisse zu implementieren, wodurch die Anfälligkeit für Manipulationen verringert wird“, sagt Adjei von Illumio.
Rose von SoSafe stimmt zu.
„ISO 42001 ist eine effektive Methode, die Organisationen dabei hilft, KI bewusst einzuführen. Sie fördert einen sorgfältigen Ansatz bei der Bewertung und Kontrolle der KI-Implementierung und stellt sicher, dass ausreichend Einblick in die damit verbundenen Risiken besteht und diese überwacht werden“, so sein Fazit.
„Genau wie ISO 27001 bietet es Ihnen keine Sicherheit. Es schafft jedoch einen Weg zur kontinuierlichen Bewertung und Verbesserung, was die Wahrscheinlichkeit erhöht, eine belastbare Lösung zu schaffen.“
Im Frühjahr werden wir mehr über die Pläne der Regierung erfahren. Angesichts der schlechten Verfassung der britischen Wirtschaft bleibt abzuwarten, ob das Finanzministerium viele dieser Initiativen blockieren oder abschwächen wird. Was auch immer passiert, hoffen wir, dass integrierte Sicherheit und eine verbesserte KI-Governance nicht verhandelbar sind.