Erinnern Sie sich an Schatten-IT? Sie hat einen disruptiven neuen Bruder: Schatten-KI. Mitarbeiter schätzen die zeitsparenden Möglichkeiten generativer KI-Modelle und nutzen sie daher zunehmend am Arbeitsplatz. Das Problem ist, dass sie nicht immer die Erlaubnis dazu haben.

Schatten-KI ist nicht nur ein theoretisches Problem, laut KI-Sicherheitsbericht 2025 von Check Point Research; es ist jetzt da. KI-Dienste sind mittlerweile jeden Monat in mindestens der Hälfte der Unternehmensnetzwerke aktiv, wie die Studie ergab. Gleichzeitig ein anderer Bericht Eine Studie von Cyberhaven Labs aus dem letzten Jahr ergab, dass der Datenaustausch mit KI-Tools zwischen März 2023 und März 2024 innerhalb eines Jahres um fast das Fünffache zugenommen hat. Das wäre in Ordnung, wenn die Nutzung vollständig genehmigt würde. Drei Viertel der ChatGPT-Nutzung am Arbeitsplatz erfolgt jedoch über private Konten, die nicht durch unternehmensweite Sicherheitskontrollen geschützt sind, so Cyberhaven.

Mitarbeiter gehen nicht immer diskret damit um, was sie mit diesen Tools teilen. Fast jeder Vierte gibt zu, hinter dem Rücken seines Chefs vertrauliche Arbeitsinformationen weitergegeben zu haben. Check Point Research stellte fest, dass 1.25 % aller Eingabeaufforderungen ein hohes Risiko für den Verlust vertraulicher Daten darstellten und weitere 7.5 % potenziell vertrauliche Daten enthielten.

Die Art der Informationen, die in diese Systeme gelangen, reicht laut Cyberhaven von Kundensupportinformationen (16.3 %) bis hin zu Quellcode, F&E-Materialien und Finanzdokumenten.

Vorfälle in der realen Welt verdeutlichen, was auf dem Spiel steht. Im April 2023 stand vor einer großen Peinlichkeit als Ingenieure den Quellcode von Halbleitern und vertrauliche Besprechungsnotizen austauschten.

Sind meine Daten wirklich gefährdet?

Unternehmen könnten denken, ihre Daten seien sicher, wenn sie in eine KI-Sitzung gelangen. Doch das ist nicht immer der Fall. Es gibt verschiedene Angriffspunkte. Beispielsweise nutzen viele KI-Dienste explizit Eingabedaten für das Modelltraining. Dazu gehören die kostenlose ChatGPT-Version von OpenAI und die kostenlose Version von Microsoft Copilot, auf der sie basiert. Dadurch könnten Fragmente Ihrer Unternehmensdaten über die Antworten der KI anderen Nutzern zugänglich gemacht werden.

Prompt-Injection-Angriffe können KI-Systeme dazu verleiten, frühere Gespräche oder Trainingsdaten preiszugeben. Dadurch wendet sich die KI gegen sich selbst und erhält Informationen, die sie nicht teilen sollte. Aufgrund ihrer potenziellen Auswirkungen gelten diese Angriffe laut OWASP mittlerweile als größtes KI-Sicherheitsrisiko. Angreifer können KI-Systeme manipulieren, indem sie sorgfältig ausgearbeitete Eingabeaufforderungen erstellen, die sensible Trainingsdaten extrahieren oder Sicherheitsmaßnahmen umgehen.

Datenlecks bei KI-Anbietern selbst bergen Risiken. Werden diese Unternehmen gehackt, werden Ihre sensiblen Eingabeaufforderungen Teil des gestohlenen Datensatzes. OpenAI musste 2023 nach einem Fehler in seiner Redis-Datenbank seine Nutzer warnen. ausgesetzt Chats einiger Benutzer an andere. Mit OpenAI jetzt unter Befehl Benutzeranfragen nicht zu löschen Im Rahmen eines Gerichtsverfahrens der New York Times speichert das Unternehmen nun private Gespräche, die bei einem erfolgreichen Hackerangriff gefährdet sein könnten.

Auch die Herkunft und Sicherheit dieser Modelle ist manchmal fraglich. Da mittlerweile mehr chinesische Modelle verfügbar sind und tiefe Besorgnis Im Vergleich zur Sicherheit des chinesischen Modells DeepSeek stellt Schatten-KI eine klare und gegenwärtige Bedrohung dar.

Die Überwachung von Schatten-KI ist schwierig

Schatten-KI kann leicht unbemerkt bleiben, insbesondere da diese Dienste schneller eingeführt werden, als IT-Abteilungen sie bewerten können. In freigegebenen Anwendungen eingebettete KI-Funktionen sind für herkömmliche Erkennungssysteme unsichtbar, und das Blockieren browserbasierter Sitzungen kann schwierig sein. Sperrlisten erfassen möglicherweise nicht alle KI-Dienste, und manche Mitarbeiter dürfen diese möglicherweise nutzen, andere nicht. Darüber hinaus sind API-basierte Interaktionen und verschlüsselte Kommunikation zu berücksichtigen.

Die KI-Bestie zähmen

Angesichts des Versprechens von KI, die Produktivität zu steigern, erscheint ein einfaches Verbot kontraintuitiv. Stattdessen ist ein behutsamer Umgang mit KI durch die Entwicklung von KI-Nutzungsrichtlinien realistischer, insbesondere angesichts der hohen Nutzerzufriedenheit der Mitarbeiter. Eine Studie der Software AG vom vergangenen Oktober gefunden dass fast die Hälfte aller Arbeitnehmer weiterhin persönliche KI-Tools verwenden würde, selbst wenn ihr Arbeitgeber sie verbieten würde.

Tools wie das AI Risk Management Framework des NIST bieten Unternehmen die Möglichkeit, die Vorteile von KI zu nutzen und gleichzeitig die damit verbundenen Risiken zu minimieren. Das NIST-Framework verfolgt einen „Governing, Map, Measure, Manage“-Ansatz und umfasst unter jeder dieser Überschriften Maßnahmen, die es Unternehmen ermöglichen, den KI-Einsatz unter ihren Mitarbeitern strategisch zu steuern. Das ISO-Framework 42001:2023 gibt zudem Hinweise zur verantwortungsvollen Einrichtung und Pflege von KI-Managementsystemen in Unternehmen.

Viele der gleichen Prinzipien, die auch im Kampf gegen traditionelle Schatten-IT Anwendung finden, gelten auch hier. Die Einrichtung interner KI-App-Stores mit freigegebenen Toolkatalogen kann Nutzern mehr Auswahlmöglichkeiten bieten und gleichzeitig angemessene Nutzungsrichtlinien gewährleisten. Dies gibt Ihnen auch mehr Handlungsspielraum bei der Festlegung akzeptabler KI-Nutzungsrichtlinien, die Mitarbeitern vorgeben, welche Abfragen zulässig (und nicht zulässig) sind. Schulungsprogramme für Mitarbeiter tragen dazu bei, diese Richtlinien zu festigen und sie gleichzeitig produktiver zu machen, indem sie über intelligente KI-Anwendungsfälle informiert werden.

Für einige Organisationen wird der Umstieg auf private KI-Systeme mit selbst gehosteten großen Sprachmodellen dazu beitragen, das Risiko externer KI-Anwendungen zu minimieren. Für viele bleibt dies jedoch eine große Herausforderung, die erhebliches Fachwissen und ein hohes Budget erfordert.

Immer wenn eine neue Technologie im Mainstream ankommt, sind Mitarbeiter experimentierfreudig. Das haben wir bei Mobilgeräten und später bei der Cloud erlebt. KI wird nicht das letzte Beispiel sein. Der Schlüssel liegt darin, eine offene und verantwortungsvolle Haltung gegenüber der Technologienutzung einzunehmen und Mitarbeiter wieder in die Gesellschaft zu integrieren.