Der September war ein Wendepunkt für die Befürworter der KI-Ethik. Die FTC ausgegeben Abschnitt 6(b) ordnet an, dass sieben große Technologieunternehmen, die Chatbots als Begleiter entwickeln, als Begleitpersonen eingesetzt werden. Dies ist die erste große bundesstaatliche Untersuchung, die sich speziell gegen KI-Begleit-Chatbots richtet, die menschliche Eigenschaften, Emotionen und Absichten nachahmen sollen. Die FTC nimmt kein Blatt vor den Mund. Sie nimmt einige der mächtigsten KI-Unternehmen ins Visier. Alphabet, Meta Platforms, Instagram, OpenAI, Snap, Character Technologies und Elon Musks xAI erhielten allesamt Briefe.

Die Kommissare stimmten einstimmig für die Anordnungen und signalisierten damit parteiübergreifende regulatorische Bedenken gegenüber KI. Sie gaben den Unternehmen 45 Tage Zeit, verschiedene Aspekte ihrer KI-Aktivitäten zu erläutern, darunter, wie sie Nutzerengagement monetarisieren, Nutzereingaben verarbeiten, Ergebnisse als Antwort auf Nutzeranfragen generieren und ihre KI-Charaktere entwickeln und genehmigen. Sie müssen außerdem darüber berichten, wie sie negative Auswirkungen vor und nach der Einführung messen, testen und überwachen und wie sie negative Auswirkungen, insbesondere auf Kinder, abmildern.

In diesen Berichten wird auch erläutert, wie Nutzer und Eltern über mögliche negative Auswirkungen informiert werden, wie sie Daten sammeln und verarbeiten und wie sie persönliche Informationen nutzen oder weitergeben. Es besteht also große Besorgnis über mögliche Schäden für die Privatsphäre und gefährdete Nutzer.

Welche Auswirkungen hat dies auf B2B-Unternehmen?

Wir sind überrascht und zugleich nicht überrascht, dass die FTC so handelt. Einerseits lehnt die Trump-Regierung Regulierung strikt ab, insbesondere im Bereich KI. Andererseits haben mehrere Familien Klagen eingereicht, in denen sie behaupten, KI-Chatbots hätten Teenager zum Selbstmord angestiftet. Kinder wurden angeblich von verantwortungslos agierenden KI-Algorithmen zum Selbstmord angestiftet. Es ist also höchste Zeit, dass etwas unternommen wird.

KIs, die mit den Gefühlen schutzbedürftiger Menschen leichtfertig umgehen, werfen jedoch die Frage auf, ob sie den Verbrauchern schaden könnten. Welche Auswirkungen könnte dies auf B2B-Unternehmen haben?

Die Annahme, dass B2B-Unternehmen die KI-Regulierung für Verbraucher ignorieren können, ist gefährlich. gewarnt Die Anwälte Christa Bieker und Christopher Leach von Mayer Brown im Jahr 2022. Abschnitt 5 der FTC enthält keine ausdrücklichen Beschränkungen hinsichtlich der Frage, wer als Verbraucher gilt. Er hat beispielsweise zu Zwangsmaßnahmen gegen B2B-Zahlungsabwickler und Kreditunternehmen für kleine Unternehmen geführt.

Und diese Maßnahme deutet darauf hin, dass die FTC bei der Behebung einiger der durch KI verursachten Schäden nicht so zurückhaltend sein wird, wie manche von uns vielleicht gedacht haben.

Im Jahr 2023 erklärte die damalige Vorsitzende Lina M. Khan: „Es gibt keine Ausnahme von den geltenden Gesetzen für KI, und die FTC wird das Gesetz energisch durchsetzen, um unlautere oder irreführende Praktiken oder unlautere Wettbewerbsmethoden zu bekämpfen.“ Es bleibt abzuwarten, wie viel davon in der neuen Regierung hängen bleibt, aber es besteht eindeutig weiterhin das Bedürfnis, Unternehmen zur Rechenschaft zu ziehen.

Unternehmen, die KI nicht richtig nutzen, riskieren eine „algorithmische Herausgabe“

Es dürfte nur wenige Menschen geben, die sich in ihren Debitoren-Chatbot verlieben. Dennoch könnte der verantwortungslose Einsatz von KI für B2B-Unternehmen weiterhin Probleme verursachen.

So hat die FTC beispielsweise eine Zwangsmaßnahme zur Löschung von Algorithmen eingeführt, mit der sie Unternehmen dazu zwingen kann, KIs zu löschen, die mit unrechtmäßig erlangten Daten entwickelt wurden. Diese Maßnahmen wurden hauptsächlich in Verbraucherfällen angewendet, aber wie wir gelernt haben, können Unternehmen auch Verbraucher sein.

Verwenden Sie ISO 42001 zur Dokumentation bewährter Verfahren

Unternehmen können sich schützen, indem sie ihre KI verantwortungsvoll entwickeln und einsetzen. Eine der wirksamsten Maßnahmen besteht darin, von Anfang an verantwortungsvolles Handeln zu dokumentieren. ISO 42001, ein internationaler Standard speziell für KI-Managementsysteme (AIMS), befasst sich mit KI-Herausforderungen wie Ethik, Transparenz, kontinuierlichem Lernen, Voreingenommenheit und Rechenschaftspflicht. Genau diese Bedenken sind der Grund für die Untersuchung der FTC.

Organisationen, die diesen Standard befolgen, müssen beispielsweise potenzielle Schäden vor der Bereitstellung identifizieren und dokumentieren, unverhältnismäßige Auswirkungen auf geschützte Gruppen bewerten, Risiken regelmäßig neu bewerten und dokumentierte Abhilfemaßnahmen implementieren. Genau das verlangt die FTC von Chatbot-Anbietern.

Ebenso regelt Anhang A.7 der ISO 42001 die Dokumentation der Datenerfassungsquellen sowie deren Transformation, Nutzung und Speicherung. Er befasst sich mit dem Datenqualitätsmanagement, einschließlich der Auswirkungen etwaiger Verzerrungen im System.

Selbst Unternehmen, die nicht direkt mit Verbrauchern zu tun haben, sollten die aktuelle Untersuchung der FTC aus der B2B-Perspektive betrachten. Chatbots sind nicht nur neue Schnittstellen zu bestehenden Unternehmenssystemen. Vielmehr sind sie deutlich leistungsfähiger in der Datenerfassung und -verarbeitung und sprechen deutlich flüssiger und natürlicher. Das schafft neue Möglichkeiten der Interaktion mit Geschäftskunden und Mitarbeitern.

Die Anordnungen der FTC nach Abschnitt 6(b) bedeuten keine rechtlichen Schritte; sie dienen der Informationsbeschaffung und sollen das Wissen der Kommission vertiefen. Sollte die Kommission jedoch mit ihren Erkenntnissen nicht zufrieden sein, könnten Zwangsmaßnahmen folgen. Dies könnte Präzedenzfälle für den Einsatz von KI gegen alle Arten von Verbrauchern (auch kleine Unternehmen) schaffen. In einem volatilen Regulierungsumfeld, in dem sich politische Entscheidungsträger mit neuen Technologien auseinandersetzen, lohnt es sich, vorsichtig zu sein und Kontrollen einzuführen.