Im Bereich der Regulierung ist der Begriff „Vereinigte Staaten“ ein Widerspruch in sich. Die Gesetze der einzelnen Bundesstaaten sind alles andere als einheitlich; traditionell passt jede Gerichtsbarkeit ihre Gesetzgebung an die spezifischen Bedürfnisse ihrer Bürger an. Nirgendwo trifft dieser Flickenteppich an Rechtsnormen so sehr zu wie in der noch jungen Welt der KI.

Gesetzgeber in allen 50 Bundesstaaten unterzeichnet 118 KI-bezogene Gesetzesentwürfe Dieses Jahr traten weitere Gesetze in Kraft und ergänzten damit die bereits geltenden. Dies entspricht lediglich 11 % der 1,080 Gesetze, die die Landesparlamente im Jahr 2025 beraten werden.

Die verabschiedeten Gesetze werden ebenfalls umfassender. Colorados SB24-305 (Inkrafttreten am 30. Juni des nächsten Jahres) ist der erste umfassende Rahmen für Verbraucherrechte im Bereich KI, der private Unternehmen betrifft, die „KI-Systeme mit hohem Risiko“ in Bereichen wie Beschäftigung, Kreditvergabe, Gesundheitswesen und Wohnungsentscheidungen entwickeln oder einsetzen.

Unterschiedliche Gesetze verfolgen unterschiedliche Ansätze zur Lösung des Problems, was den Flickenteppich noch verstärkt. Beispielsweise verknüpft der Texas Responsible Artificial Intelligence Governance Act (TRAIGA), ein weiterer umfassender Rahmen für den Verbraucherschutz im Bereich KI, der dieses Jahr unterzeichnet wurde, die Haftung mit der Absicht, im Gegensatz zum ergebnisorientierten Ansatz Colorados. Kalifornien hingegen verfügt über mehrere Gesetze, darunter eines, das sich auf … konzentriert. Transparenz der Trainingsdaten.

Bei US-Unternehmen läuten bereits die Alarmglocken in Sachen Compliance. sieben von zehn IT-Verantwortliche zählen die Einhaltung regulatorischer Vorgaben mittlerweile zu den drei größten Herausforderungen beim Einsatz generativer KI. Gartner (die Quelle dieser Statistiken) geht davon aus, dass Verstöße gegen KI-Vorschriften zu einem Anstieg von Rechtsstreitigkeiten um 30 % für Technologieunternehmen führen werden. Unternehmen mögen das Risiko zwar erkennen, sind aber nicht darauf vorbereitet. Laut dem Marktforschungsunternehmen ist weniger als ein Viertel zuversichtlich, die KI-Governance tatsächlich steuern zu können.

Der Umgang mit Regulierungen ist für US-Unternehmen nichts Neues, schließlich mussten sie sich 2018 mit der DSGVO auseinandersetzen (etwas wie eine Schlange, die eine Ziege verschlingt). Doch die KI scheint für sie noch schlimmer zu werden.

Trumps Exekutivanordnungs-Gambit

Angeschlagene Führungskräfte könnten in Präsident Trumps jüngstem Schreiben Trost finden. Letzte Woche veröffentlichte das Weiße Haus eine Executive Order Sie strebt danach, die staatliche Regulierung von KI einzuschränken. Damit versucht sie, viele der in ihrer Erklärung dargelegten Versprechen einzulösen. KI-Aktionsplan, veröffentlicht im Juli.

Die jüngste Exekutivanordnung ernennt Generalstaatsanwältin Pam Bondi zur Leiterin einer „Arbeitsgruppe für KI-Rechtsstreitigkeiten“, die nach rechtswidrigen Landesgesetzen suchen soll. Das Handelsministerium wird anschließend Förderanträge an die jeweiligen regulatorischen Rahmenbedingungen der Bundesstaaten knüpfen.

Die Exekutivanordnung zielt darauf ab, die vom Generalstaatsanwalt kritisierten Regelungen der Bundesstaaten durch einen einheitlichen Rechtsrahmen zu ersetzen. Dieser soll von einem Sonderberater für KI und Krypto (derzeit vom ehemaligen PayPal-COO David Sacks bekleidet) entwickelt werden. Die Federal Communications Commission (FCC) wird zudem die Schaffung eines einheitlichen Bundesstandards für die Meldung und Offenlegung von KI-Modellen prüfen.

Dies mag einigen Unternehmen, die sich Sorgen um die Komplexität des einzelstaatlichen Rechts machen, Hoffnung geben, doch Rechtsexperten glauben nicht, dass es in der Praxis Bestand hat.

„Bundesbehörden wie das Justizministerium und die FTC dürfen nicht ohne eine eindeutige Ermächtigung des Kongresses in rechtmäßige staatliche Vorschriften eingreifen.“ schrieb Olivier Sylvain, Professor für Rechtswissenschaften an der Fordham University und Senior Policy Fellow am Knight First Amendment Institute der Columbia University.

Der Kongress spielt nicht mit. Im Juli stimmte der Senat mit überwältigender Mehrheit dafür, ein vorgeschlagenes zehnjähriges Moratorium für die Durchsetzung staatlicher KI-Gesetze aus dem Gesetzesentwurf zu streichen. Kürzlich lehnten die Abgeordneten es ab, ein solches Moratorium in das Verteidigungsgesetz aufzunehmen.

Exekutivverordnungen betreffen die Regierung, nicht den Privatsektor. Daher versucht das jüngste Dokument, die Exekutive zu nutzen, um staatliche Klagen zu untergraben. Sylvain fügte jedoch hinzu: „Ohne ein Gesetz, das die staatliche Regulierung von KI auch nur annähernd regelt, geschweige denn sie ausschließt, wäre ein Angriff des Justizministeriums oder der FTC auf die Bundesstaaten von vornherein zum Scheitern verurteilt.“

Die Risiken eines nicht konformen KI-Einsatzes

Vor diesem Hintergrund sollten Unternehmen die langfristige Einhaltung der staatlichen KI-Regulierungen planen. Dazu sollten drei Fragen in den Vorstandssitzungen zu KI verpflichtend behandelt werden: Wer trägt die Verantwortung für KI-Entscheidungen? Wie werden die Risiken bewertet? Und was geschieht, wenn Modelle versagen? Doch das geschieht nicht. Nur 49 % der Vorstände haben KI, Risiken und die Auswirkungen von KI auf Unternehmen bewertet. nach der Nationale Verband der Unternehmensleiter.

Die Gefahren einer fehlenden Risikobewertung sind vielfältig. Die mit Abstand größte ist nach McKinseyUngenauigkeit ist ein häufiges Problem, das 30 % der Unternehmen mindestens einmal in KI-Projekten erlebt haben. Im Jahr 2024 zahlte Air Canada Schadensersatz, nachdem ihr Chatbot fehlerhafte Daten lieferte. erfundene TrauerrabatteDoch diese Schäden verblassen im Vergleich zu dem Reputationsschaden, den es verursacht hat.

An zweiter Stelle auf McKinseys Liste stand die Erklärbarkeit, die 14 % der Unternehmen bei realen KI-Implementierungen betrifft. Kann nicht erklärt werden, warum ein Modell einem Antragsteller einen Kredit verweigert hat, drohen regulatorische Konsequenzen. Weitere Risiken sind Datenschutzverletzungen und Cybersicherheitslücken, die jeweils zu potenziellen regulatorischen Konsequenzen führen können.

Unternehmen müssen nicht lange nach Beispielen für fehlgeschlagene KI-Implementierungen suchen. Ein KI-gestützter Softwareentwicklungsdienst die Produktionsdatenbank einer Person gelöschtZum Beispiel. Am beunruhigendsten war jedoch wohl der Skandal um die niederländische Steuerbehörde. Missbrauch von KI um Entscheidungen zu treffen, die das Leben stark beeinflussen und zu Leistungen führen.

ISO/IEC 42001 bietet eine Grundlage für die KI-Konformität

In so unruhigen Zeiten wie diesen, in denen die regulatorische KI-Landschaft alles andere als einheitlich ist, ist es ratsam, auf etablierte Standards zurückzugreifen wie ISO / IEC 42001 Es trägt zur Etablierung einheitlich bewährter Verfahren bei. Der im Dezember 2023 veröffentlichte internationale Standard für KI-Managementsysteme unterstützt Organisationen, die den Einsatz von KI planen, bei Risiko- und Folgenabschätzungen. Es handelt sich um ein Instrument für KI-Governance, das in verschiedenen Rechtsordnungen anwendbar ist.

Unternehmen können die Entwicklung und Aufrechterhaltung bewährter KI-Praktiken fördern, indem sie Compliance-Maßnahmen in ihre Organisationsstruktur integrieren. Beispielsweise kann ein Mitglied des Compliance-Teams mit der Überwachung KI-spezifischer Compliance-Maßnahmen gemäß ISO 42001 beauftragt werden. Zudem sollten regelmäßige Risikobewertungen in die Entwicklungs-, Implementierungs- und Nutzungsprozesse von KI integriert werden.

Inmitten eines unübersichtlichen Ozeans einzelstaatlicher Gesetze und sich ständig ändernder Prioritäten der Bundesbehörden bei der Durchsetzung von Vorschriften, die die rechtlichen Grenzen der Regulierung auf die Probe stellen, ist ISO 42001 ein Rettungsanker, an den sich die Compliance-Abteilungen von Unternehmen klammern können.