Ein aktueller Vorfall hat Bedenken hinsichtlich der Datenverarbeitung durch GenAI-Tools geweckt. Ist es an der Zeit, sicherzustellen, dass Ihre Daten nicht in deren LLMs landen? Dan Raywood untersucht die Optionen.

Ein weiser Mensch hat einmal gesagt: „Was man ins Internet stellt, bleibt im Internet.“ Konkret bezog sich das auf soziale Medien, insbesondere Facebook.

In diesem Jahrzehnt besteht die Herausforderung weniger darin, Inhalte in sozialen Medien preiszugeben, sondern vielmehr darin, was Sie in generative KI und große Sprachmodelle (LLMs) eingegeben haben, die diese Daten dann speichern, verarbeiten und aufbewahren, um in Anfragen und Suchergebnissen bessere Details bereitzustellen.

Das Vertrauen in die Sicherheit von GenAI wurde jedoch im Sommer erschüttert, als Tausende von Grok-Chat-Transkripten wurden aufgedeckt und verdeutlichten, wie schnell private KI-Konversationen öffentlich werden können. Für Einzelpersonen kann dies peinlich sein. Für Unternehmen sind die Risiken deutlich höher: Kundendaten, geistiges Eigentum oder Rechtsstrategien können offengelegt werden, was von Reputationsschäden bis hin zu Bußgeldern reichen kann.

Vom Chatbot zur Suchmaschine

Gemäß MedienberichteJedes Mal, wenn ein Chat mit dem Grok-Bot geteilt wurde, wurde eine eindeutige URL generiert und Suchmaschinen zur Verfügung gestellt. Die meisten Benutzer wussten nicht, dass diese Links automatisch indexiert wurden und somit jeder sie online finden konnte.

Damian Chung, Business Information Security Officer bei Netskope, erklärt gegenüber IO, dass er glaube, dass in diesem Fall nur der Chatverlauf offengelegt worden sei. Dies sei jedoch „ziemlich besorgniserregend, weil man nicht damit rechnet, dass diese KI-Interaktionen öffentlich gemacht werden könnten, wenn man sie teilt.“

Er ist jedoch der Ansicht, dass dieser Vorfall zumindest das Bewusstsein für diese Art von Risiko schärft, denn „wir schauen uns nicht an, welche Sicherheitskontrollen für diese LLMs gelten, also sollte man nicht einfach blind zulassen, dass irgendwelche Informationen in sie eindringen.“

Für Unternehmen ist die Lektion klar: Sobald Daten Ihre Umgebung verlassen, verlieren Sie die Kontrolle darüber. Selbst scheinbar harmlose Uploads können auf eine Weise wieder auftauchen, die Sie nie beabsichtigt haben.

Schatten-KI und das Risiko von Datenlecks

Grok, ein Produkt von Elon Musks xAI-Unternehmen und häufig auf X verwendet, ist mittlerweile einer von Hunderten verfügbaren GenAI-Diensten. Wenn jemand Gespräche leaken kann, die der Teilnehmer für privat oder zumindest geheim hielt, welche Daten könnten dann von anderen geleakt oder missbraucht werden?

Chung sagt, dass wir uns noch in einem frühen Stadium der Entwicklung von GenAI befinden und es gut ist, sich der Risiken bewusst zu sein, die Benutzer aber auch nicht von der Nutzung abzuschrecken.

Matt Beard, Direktor für Cybersicherheit und KI-Innovation bei AllPoints Fibre Networks, bringt es auf den Punkt: „Ob es sich nun um sensible oder allgemeine Daten handelt, die Bedrohungen sind in dieser Hinsicht durchaus real. Von der unbeabsichtigten Offenlegung von Kundeninformationen bis hin zum Durchsickern interner Strategiedokumente können die Folgen von Reputationsschäden bis hin zu Bußgeldern reichen.“

Dieses Risiko wird durch Schatten-KI noch verstärkt. Mitarbeiter, die zur Produktivitätssteigerung auf nicht genehmigte Tools zurückgreifen, können vertrauliches Material preisgeben, ohne es zu merken. Einmal online indexierte Informationen können noch lange nach dem Löschen der ursprünglichen Konversation bestehen bleiben.

Richtlinien, kein Verbot

Ein Ansatz besteht darin, den Zugriff auf KI-Tools vollständig zu blockieren. Sicherheitsexperten weisen jedoch darauf hin, dass dies ineffektiv sei. Chung merkt an: „Wenn man das tut, wird der Nutzer einen anderen Weg finden, die Tools zu nutzen. Durch die Blockierung erreichen wir nicht unbedingt das erwartete Sicherheitsniveau.“

Experten schlagen stattdessen vor, den Einsatz von KI unter klaren Regeln und Sicherheitsvorkehrungen zu ermöglichen. Beard zufolge liege der Ausgleich im „Aufbau eines Rahmens technischer und verhaltensbezogener Kontrollen“, um Unternehmensdaten zu schützen. Es gehe darum, „den Mitarbeitern die Vorteile der sicheren Nutzung dieser Tools aufzuzeigen und sicherzustellen, dass ihnen unternehmensweit akzeptierte Systeme zur Verfügung stehen, denn wenn nicht, werden sie letztlich nach einer Lösung suchen.“

Angelo Rysbrack, Spezialist für digitale Verteidigung bei Pronidus Cybersecurity, stimmt zu, dass die jüngsten Sicherheitsverletzungen das Hauptrisiko für Unternehmen verdeutlichen: die Art und Weise, wie Mitarbeiter mit diesen KI-Tools interagieren. Das Hochladen sensibler oder sogar scheinbar harmloser Daten kann schnell zur Offenlegung führen. Sobald die Daten Ihre Umgebung verlassen, verlieren Sie die Kontrolle darüber.

Praktische Lösungen

Was können Unternehmen also realistischerweise tun, um das Risiko einer Gefährdung zu verringern? Die ISMS-Befragten waren sich einig, dass die Lösung im Aufbau strukturierter, mehrschichtiger Abwehrmechanismen liegt.

Rysbrack weist darauf hin, dass die meisten Organisationen bereits über akzeptable Nutzungs- oder IT-Richtlinien verfügen und diese die natürliche Grundlage bilden. „Wenn die Grundlage vorhanden ist, sollte man darauf aufbauen“, anstatt bei Null anzufangen. Er warnt jedoch davor, dass Richtlinien auf dem Papier nicht ausreichen. Die Mitarbeiter müssen von Anfang an über die Regeln informiert und regelmäßig an ihre Verantwortlichkeiten erinnert werden.

Beard betont, dass der Schwerpunkt auf der Ermöglichung einer sicheren Nutzung unter festgelegten Bedingungen liegen müsse: „Wir müssen KI aufgrund der Effizienz, die sie uns bringt, annehmen, aber das bedeutet nicht, sie blind zu übernehmen. Es bedeutet, ein System technischer und verhaltensbezogener Kontrollen aufzubauen, um unsere Daten und unsere Mitarbeiter zu schützen.“

Für Rysbrack müssen diese Kontrollen praktische Sicherheitsvorkehrungen beinhalten: „Verwenden Sie Inhaltsfilterung, App-Schutzrichtlinien und Datenverlustprävention, um zu verhindern, dass vertrauliche Informationen das Unternehmen verlassen.“ In manchen Fällen kann es angebracht sein, „riskante Apps zu blockieren, den Mitarbeitern aber nach Möglichkeit sichere Alternativen anzubieten.“

Beard betont, wie wichtig es sei, zwischen genehmigten und nicht genehmigten KI-Tools zu unterscheiden und klare Erwartungen an die Mitarbeiter zu stellen: „Vor allem sollten akzeptable Nutzungsrichtlinien eindeutig verbieten, dass Informationen, die über die Klassifizierung ‚Öffentlich‘ hinausgehen, an nicht genehmigte Dienste weitergegeben werden.“

Diese Maßnahmen können durch die Verankerung in anerkannten Rahmenwerken wie ISO 27001 für Informationssicherheit und ISO 42001 für KI-Governance weiter gestärkt werden. Dadurch wird sichergestellt, dass Richtlinien, Überwachung und Risikomanagement nicht nur konsistent, sondern auch überprüfbar und gegenüber behördlichen Kontrollen vertretbar sind.

Zusammengenommen schafft diese Kombination aus Rahmenbedingungen, technischen Sicherheitsvorkehrungen und kontinuierlicher Sensibilisierung der Benutzer eine Kultur, in der die Mitarbeiter sowohl die Vorteile von KI-Tools als auch die Grenzen der sicheren Nutzung verstehen.

Handeln Sie jetzt, warten Sie nicht

Beard ist sich sicher, dass die Zeit des Zögerns vorbei ist. Unternehmen sollten nicht auf einen Sicherheitsverstoß warten, sondern jetzt handeln. „Erstellen Sie klare, separate Richtlinien für den Einsatz und die Entwicklung von KI. Stellen Sie sicher, dass diese transparent überwacht werden, und schulen Sie Ihre Mitarbeiter. Behandeln Sie KI vor allem als eine Fähigkeit, die es zu nutzen gilt, und nicht als eine, die man fürchten darf.“

Chung stimmt zu, dass es nicht realistisch ist, jede neue KI-Anwendung zu blockieren. Da es bereits Hunderte davon gibt und ständig neue hinzukommen, schlägt er vor, dass Unternehmen sanftere Maßnahmen in Betracht ziehen, beispielsweise eine „Coaching“-Nachricht vor dem Zugriff auf eine GenAI-Website, die die Mitarbeiter daran erinnert, sorgfältig darüber nachzudenken, was sie teilen.

Rysbrack betont, dass die Herausforderung darin besteht, ein Gleichgewicht zwischen dem Schutz der Daten und der Innovationsbeschränkung zu finden. Die besten Ergebnisse werden durch die Kombination klarer Regeln, Benutzerbewusstsein, Schulungen und technischer Sicherheitsvorkehrungen erzielt. „Auf diese Weise kennen die Mitarbeiter die Grenzen, verfügen über die richtigen Tools und das Unternehmen vermeidet, in die nächste Schlagzeile zu geraten.“

Die wahre Lektion von Grok

Der Grok-Leak ist nicht der erste Fall, in dem KI-generierte Gespräche online durchsuchbar werden, und es wird auch nicht der letzte sein. Für Unternehmen ist die wichtigste Lektion, dass man das Vertrauen in GenAI niemals als selbstverständlich voraussetzen sollte.

Durch die Einführung von Richtlinien, technischen Sicherheitsvorkehrungen und die Sensibilisierung der Mitarbeiter können Unternehmen die Produktivität der KI nutzen und gleichzeitig ihre wertvollsten Daten schützen. Auf den nächsten Verstoß zu warten, ist keine Option.