Als das National Cyber ​​Security Centre (NCSC) seine erste Vorhersagen rund um KI Im Jahr 2024 war dies ein ernüchternder Moment für die Cybersicherheits-Community. Es handelte sich um eine wohlüberlegte Einschätzung der kurzfristigen Bedrohung durch den Missbrauch der Technologie. Die Warnung, dass KI „mit ziemlicher Sicherheit das Volumen und die Auswirkungen von Cyberangriffen in den nächsten zwei Jahren erhöhen“ werde, war für viele Netzwerkverteidiger ein Weckruf.

Nachdem sich viele Vorhersagen des NCSC bewahrheitet haben, gibt es für die Community nun keine Ausreden mehr, nachdem die Behörde ihre Folgebewertung veröffentlicht hat. Experten argumentieren, dass Organisationen jetzt Maßnahmen ergreifen müssen, um sicherzustellen, dass sie nicht auf der Seite einer wachsenden digitalen Kluft zwischen denen stehen, die in der Lage sind, mit der Bedrohung umzugehen, und denen, die dazu nicht in der Lage sind.

Was das NCSC sagt

Der NCSC-Bericht Die Meldung ist erneut düster. Sie warnt davor, dass KI Cyberangriffe weiterhin effektiver und effizienter machen wird und dass in den nächsten zwei Jahren immer mehr Bedrohungsakteure Zugang zu solchen Tools erhalten werden. Sie fügt hinzu, dass der zunehmende Einsatz von KI in Organisationen – insbesondere bei Anbietern kritischer Infrastrukturen (CNI) – auch deren Angriffsfläche erheblich vergrößern wird.

Hier sind diese Einschätzungen im Detail:

 1. Eine Zunahme der „Häufigkeit und Intensität“ von Cyber-Bedrohungen

Bedrohungsakteure nutzen KI bereits zur Verbesserung von Aufklärung, Schwachstellenforschung und Exploit-Entwicklung (VRED), Social Engineering, der Erstellung grundlegender Malware und der Datenexfiltration. Dies wird in den nächsten zwei Jahren das Volumen und die Auswirkungen von Angriffen erhöhen, anstatt neuartige Angriffe voranzutreiben. KI-gestütztes VRED dürfte der bedeutendste Anwendungsfall sein.

2. Immer mehr Bedrohungsakteure nutzen KI

Der kriminelle Einsatz von KI wird bis 2027 zunehmen, da sie in immer mehr Produkte integriert wird. Bedrohungsakteure werden immer besser darin, die in legitime Modelle integrierten Schutzmechanismen zu umgehen und KI-gestützte Penetrationstests in „As-a-Service“-Angeboten einzusetzen, was unerfahrenen Akteuren einen Vorteil verschafft.

3. Die Automatisierung kommt

Ein vollautomatischer, durchgängiger Cyberangriff ist vor 2027 unwahrscheinlich. Bedrohungsakteure werden jedoch mit der Automatisierung einiger Elemente der Angriffskette experimentieren. Dazu gehören das Identifizieren und Ausnutzen von Schwachstellen sowie die schnelle Aktualisierung von Malware/Infrastruktur, um einer Erkennung zu entgehen. Dies wird die Identifizierung, Verfolgung und Eindämmung von Bedrohungen ohne KI schwieriger machen.

4. Eine wachsende Zero-Day-Bedrohung durch fortgeschrittene Akteure

Erfahrene Akteure, die in der Lage sind, KI-Modelle zu „optimieren“ oder „souveräne KI-Systeme“ zu bauen, werden diese nutzen, um Zero-Day-Exploits zu entwickeln – und so kritische Systeme bis 2027 anfälliger machen.

5. KI erweitert die Angriffsfläche von Unternehmen

KI ist zunehmend mit Unternehmenssystemen (einschließlich OT) und Daten verknüpft. Dies birgt ein wachsendes Risiko durch direkte Injektion, Software-Schwachstellen, indirekte Injektion und Angriffe auf die Lieferkette. Diese Techniken können KI bereits für einen breiteren Systemzugriff nutzen.

KI-Entwickler könnten diese Risiken noch verstärken, indem sie überstürzt unsichere Produkte auf den Markt bringen, die umfangreiche Datensätze sammeln. Dadurch steigt das Risiko, Nutzer für gezielte Angriffe zu enttarnen. Weitere Sicherheitsprobleme können sein:

  • Schwache Verschlüsselung (wodurch Daten anfällig für Abfangen sind)
  • Mangelhaftes Identitätsmanagement und -speicherung (erhöhtes Risiko des Diebstahls von Anmeldeinformationen)
    6. Cybersicherheit im großen Maßstab wird entscheidend

Da immer mehr Bedrohungsakteure KI für VRED nutzen, um Systeme in großem Umfang auszunutzen und die Zeit zwischen Offenlegung und Ausnutzung weiter zu verkürzen, werden CNI- und OT-Systeme zunehmend gefährdet. Es könnte eine „digitale Kluft“ zwischen Systemen entstehen, die diese KI-gestützte Bedrohung bewältigen können, und einer größeren Anzahl anfälligerer Systeme.

Die rechte Seite der Kluft

„Automatisierung spart auf beiden Seiten Zeit und steigert die Produktivität. Böswillige Akteure erkennen die Vorteile des technologischen Fortschritts jedoch oft am schnellsten“, warnt Andy James, CEO von MSSP Custodian360.

Wir befinden uns in einer Welt, in der es Organisationen gibt, die glauben, über ausreichende Kontrollen und Schutzmaßnahmen zu verfügen, und solche, die dies zwar wissen, aber bereit sind, die Risiken zu akzeptieren. In Wirklichkeit wissen beide nicht, ob sie über ausreichende Kontrollen verfügen, und der Drang, diese Schwachstellen auszunutzen, wird nur noch zunehmen.

Er erklärt gegenüber ISMS.online, dass eine bessere Schulung und Sensibilisierung der Mitarbeiter den Nutzern helfen werde, KI-basierte Social-Engineering-Bemühungen zu erkennen, obwohl diese immer raffinierter würden. Die vom NCSC beschriebenen Bedrohungen sollten laut James auch ein Treiber für eine stärkere Einführung von Zero Trust in Unternehmen sein.

Ruth Wandhöfer von der Zentrum für Cybersicherheit und Geschäftsresilienzpolitik (CSBR)) fügt hinzu, dass Unternehmen veraltete Tools wie SIEM und ineffektive Tools wie Firewalls aufgeben und proaktiv KI-gestützte „Direct Threat Intelligence“ (DTI) einführen sollten.

„Im Gegensatz zu allgemeiner Cyber-Threat Intelligence (CTI), die Ihnen einen Datendump liefert, der zwangsläufig jede Menge Fehlalarme und irrelevante Datenpunkte enthält, bietet DTI Organisationen beweisbasierte Bedrohungsinformationen, die speziell auf Ihre jeweilige Organisation zugeschnitten sind“, sagt sie gegenüber ISMS.online.

Im besten Fall liefert diese Technologie ein ausgeklügeltes System, in dem KI und maschinelles Lernen Angriffsmuster analysieren und Bedrohungen in Echtzeit überwachen. Dieses organisationsspezifische DTI wird kuratiert und automatisch in den Sicherheits-Stack des Unternehmens integriert und fungiert als automatisierte Abwehrebene gegen eingehende Bedrohungen.

Es geht darum, Angriffe zu verhindern, bevor sie sich auf eine Organisation auswirken können, indem Profile der Gegner, ihrer Infrastruktur und TTPs erstellt werden.

„Dies ist umso wichtiger im Kontext der zunehmenden regulatorischen Anforderungen an die Cybersicherheitslage von Organisationen selbst und von Drittanbietern, wie beispielsweise in DORA und NIS 2“, fügt Wandhöfer hinzu.

Was KI als Ziel betrifft: Sie rät Organisationen, Lösungen wie große Sprachmodelle (LLMs) intern zu entwickeln, anstatt sensible interne Systeme mit externen Open-Source-KI-Lösungen zu verbinden.

„Da KI die Angriffsflächen erweitert, ist der Aufstieg der agentenbasierten KI eine weitere schnell wachsende Risikorealität“, warnt Wandhöfer. „Agentenbasierte KI kann gehackt, mit Malware infiziert werden, um Daten zu extrahieren oder betrügerische Aktivitäten durchzuführen – und vieles mehr.“

Eine Rettung für unterbesetzte IT-Teams könnte eine verbesserte Zusammenarbeit innerhalb der Sicherheits-Community sein.

„Mit der endgültigen Verabschiedung des Data (Use & Access) Act besteht die Hoffnung, dass ein verstärkter Informationsaustausch zwischen der Industrie und dem öffentlichen Sektor sowie zwischen verschiedenen Branchen die Auswirkungen bösartiger KI abmildern wird“, so ihr Fazit.

In der Zwischenzeit sind IT- und Compliance-Verantwortliche gut beraten, die neuesten Entwicklungen im Auge zu behalten und KI-Bedrohungen ernsthaft in ihre Risikoplanung einzubeziehen.