Wir schreiben das Jahr 2023 und KI scheint überall zu sein. ChatGPT, die KI des von Elon Musk gegründeten Instituts OpenAI, ist Studentenaufsätze schreiben, Bücher am laufenden Band herausbringenUnd sogar anspruchsvolle Parkstrafen. In einem Vorfall, der beweist, dass wir in einer Episode von Black Mirror leben, handelt es sich sogar um einen besonders seelenlosen Universitätsangestellten benutzte es um Schüler nach einer Massenerschießung zu trösten.

Wie ChatGPT funktioniert

Datenschutz- und Sicherheitsexperten fragen sich möglicherweise, wie KI auch ihnen helfen könnte. Könnte es beispielsweise Ihre Datenschutzrichtlinie verfassen? Die Antwort ist ja – sozusagen.

Um die Frage genauer zu beantworten, lohnt es sich zu verstehen, wie die neuere KI-Marke von ChatGPT funktioniert. Es basiert auf einem sogenannten Large Language Model (LLM). Hierbei handelt es sich um ein KI-Modell, das mithilfe eines großen Textkorpus trainiert wird, der normalerweise aus dem Internet stammt. Der Trainingsprozess zerlegt diesen Text in Token, die Teile von Wörtern sein können. Anschließend wird enorme Rechenleistung benötigt, um Muster in der Sprache zu finden, die dabei helfen, die Zusammenhänge zwischen diesen Token zu verstehen.

Wenn jemand die KI mit einer Anfrage auffordert (z. B. „Erklären Sie Cold Fusion im Stil von Sherlock Holmes“), verwendet die KI ihr umfangreiches Trainingsmodell, um Wortblöcke zu nehmen und vorherzusagen, welche wahrscheinlich als nächstes kommen werden. Auf diese Weise kann eine überzeugende Sprache erzeugt werden, die den in der Eingabeaufforderung dargelegten Konzepten zu folgen scheint.

Selbstbewusst und dumm: Eine schlechte Kombination

Das Problem bei diesem Ansatz ist, dass die KI nicht weiß, wovon sie spricht. Forscher haben es mit einem „stochastischen Papagei“ verglichen, der zufällige Wörter aneinanderreiht, ohne sie zu verstehen. Ein Papier, das dies beschreibt, Über die Gefahren stochastischer Papageien, weist darauf hin, dass „Sprachen Zeichensysteme sind, also Paarungen von Form und Bedeutung.“ Wenn jemand „Kaninchen“ sagt, versteht man das Konzept eines Kaninchens und wie es mit verschiedenen anderen Dingen zusammenhängt (Ostern, Frühling, Haustiere, leckerer Eintopf usw.). „Aber die Trainingsdaten für LMs sind nur Form“, sagen die Forscher. „Sie haben keinen Zugang zur Bedeutung.“

Das schafft Probleme für LLMs, auf die Sie sich für sachliche Inhalte verlassen. Da sie Wörter auf der Grundlage statistischer Wahrscheinlichkeit und nicht auf der Grundlage von Wissen finden, neigen sie dazu, Dinge zu schreiben, die nicht wahr sind. Im KI-Jargon wird dies als „Halluzinieren“ bezeichnet und ist ein Problem, wenn man sich bei sachlichen Inhalten auf sie verlassen möchte.

Personen habe experimentiert mit der Verwendung von ChatGPT zum Verfassen einer Datenschutzrichtlinie, mit fragwürdigen Ergebnissen. Sie stellten vorhersehbar fest, dass die Ergebnisse schlechter ausfielen, wenn das LLM mehr Lücken füllen musste.

Durch einfache KI werden Richtlinien zurückgegeben, die nicht auf bestimmten Datenschutzgesetzen basieren und sich nicht auf bestimmte Geschäftspraktiken beziehen. Die Datenschutzrichtlinie verbesserte sich, als die Tester weitere Informationen hinzufügten, und führte zu einem beeindruckenden Ergebnis. Zu diesem Zeitpunkt müssen Sie jedoch „Stunden, Tage oder sogar Wochen damit verbringen, zunächst herauszufinden, welche Datenschutzgesetze für Sie gelten, die Offenlegungsanforderungen dieser Gesetze zu analysieren und diese Informationen dann zusammen mit Ihren spezifischen Geschäftspraktiken an ChatGPT weiterzuleiten.“ " Sie sagt. Da stellt sich die Frage: Warum nicht gleich das Ganze selbst machen?

Andere haben ChatGPT und ähnliche LLMs als „Wortrechner“ beschrieben. Sie sind für das Schreiben nur dann wirklich nützlich, wenn man sich selbst viel Mühe gibt und die Ergebnisse sorgfältig überprüft.

Der Umgang der Menschen mit KI ist oft auch selbstbewusst und dumm

Wir können KI-Tools nicht vertrauen, aber wir können darauf vertrauen, dass Menschen sie missbrauchen. Wir haben bereits die Folgen schlecht konzipierter und unangemessen eingesetzter KI gesehen, die zu erheblichen Folgen führen, die sich auf das wirkliche Leben auswirken.

Behörden haben KI-gestützte Systeme eingesetzt, die sich bei der Empfehlung von Gerichtsurteilen als voreingenommen erwiesen haben. Beispielsweise führte der Missbrauch von KI-Software durch die niederländische Steuerbehörde dazu beschuldigen Eltern zu Unrecht des Betrugs– Der blinde Glaube an fehlerhafte KI-gestützte Gesichtserkennungsalgorithmen führte dazu unrechtmäßige Festnahme unschuldiger Menschen. Voreingenommenheit tauchte auch im KI-gestützten Rekrutierungssystem von Amazon auf, das eingestellt wurde, nachdem es bestehen blieb Es wird versäumt, qualifizierte Frauen zu empfehlen für Technologieberufe.

Wie können wir dieses Problem angehen? Einige Experten haben es bereits getan gefordert ein sechsmonatiges Moratorium für die KI-Entwicklung, um das ganze traurige Durcheinander in den Griff zu bekommen, bevor die Dinge noch mehr außer Kontrolle geraten.

An Richtlinien mangelt es nicht

Wir haben bereits viele Richtlinien für verantwortungsvolle KI zur Auswahl, und sie sagen Ähnliches. Die Interessenvertretung Algorithm Watch hält eine Inventar von KI-Richtlinien verschiedener Institutionen, darunter auch der EU Ethikrichtlinien für vertrauenswürdige KI. Eines, das zum Zeitpunkt des Schreibens noch nicht dabei war, war das National Institute of Standards and Technology (NIST). KI-Risikomanagement-Framework, veröffentlicht im Januar dieses Jahres. Wie die meisten anderen Richtlinien zielt das NIST-Framework darauf ab, einige Leitlinien für die Entwicklung und Anwendung von KI bereitzustellen. Es spiegelt auch mehrere gemeinsame Grundsätze anderer ethischer Richtlinien wider, wie etwa Transparenz, Rechenschaftspflicht, Datenschutz, Sicherheit und Belastbarkeit.

Pro OEDCZum Zeitpunkt des Verfassens dieses Artikels gibt es über 800 KI-Politikinitiativen in fast 70 Ländern, aber es gibt einen großen Unterschied zwischen verbindlicher und unverbindlicher Politik. Die Einhaltung der meisten Initiativen, einschließlich NISTs, ist freiwillig.

Ein Blick auf Unternehmen wie Clearview AI zeigt, wie wichtig es ist, verantwortungsvolle KI-Richtlinien rechtlich durchzusetzen, anstatt nur nett zu fragen. Das Startup, das Gesichtserkennungsdienste an Strafverfolgungsbehörden verkauft, versorgt diese mit Millionen von Fotos gestohlen aus sozialen Netzwerken ohne Zustimmung der Personen.

Nicht genügend Regulierung

Die Länder waren hinsichtlich ihres Ansatzes zur strikten Regulierung ihrer Politik gespalten. Alle stehen vor der gleichen Herausforderung: zu wenig Regulierung, und sie riskieren einen unvorhersehbaren und unverantwortlichen Einsatz der Technologie. Zu viel, und sie könnten potenziell lukrative KI-Innovatoren zum Abwandern zwingen.

Die USA haben KI noch nicht reguliert. Kongress vorgeschlage das Algorithmic Accountability Act im Jahr 2022, das jedoch ohne Abstimmung scheiterte. Die FTC hat versprochen seine bestehenden Befugnisse zu nutzen, um US-Bürger vor dem ungeheuerlichen Einsatz von KI zu schützen. Es hat auch eine herausgegeben Vorankündigung der vorgeschlagenen Regelsetzung Dies könnte weitreichende neue Handelsregeln für den Umgang mit automatisierten Entscheidungs- und Überwachungssystemen einläuten.

Die EU war aggressiver und schlug vor KI-Gesetz, von dem die Befürworter hoffen, dass er noch in diesem Jahr verabschiedet wird. Es würde alle KI-Produkte und -Dienste abdecken, sie nach ihrem wahrgenommenen Risikoniveau klassifizieren und strenge Bewertungen und Datenkonformitätsregeln auf die Produkte mit höherem Risiko anwenden. Zuwiderhandlungen würden mit hohen Geldstrafen rechnen.

Großbritannien hat gemacht was es beschönigend als „innovationsfreundlicher Ansatz„. Anstatt eine einzige neue KI-Regulierungsbehörde zu ernennen, wird die Verantwortung für die Regulierung der KI zwischen den bestehenden Regulierungsbehörden aufgeteilt und ihnen zunächst keine neuen rechtlichen Befugnisse dafür eingeräumt.

Während Politiker auf dem schmalen Grat zwischen Ethik und wirtschaftlichem Nutzen wandeln, steht die Zukunft der KI auf dem Spiel. Eines ist sicher: Verantwortungsvolles Handeln allein den Technologieunternehmen zu überlassen, wäre … unverantwortlich.