Selbst als wir unsere persönlichen Daten preisgaben, konnten wir uns immer auf zumindest ein Geheimnis verlassen: Wenn wir genügend Selbstkontrolle haben, können die Leute niemals unsere Gedanken lesen. Jetzt müssen wir darauf gefasst sein, dass sich sogar das ändern wird.

Für viele Techniker sind unsere Gefühle die letzte Grenze bei der Suche nach persönlichen Informationen. Für einen Marketingexperten oder Politiker könnte das Lesen unserer Emotionen das Mächtigste überhaupt sein.

Die Anbieter haben sich beeilt, Produkte zu entwickeln, die genau das können. Einige schlagen vor, Technologien zu verwenden, die Gehirndaten nutzen (ein Bereich, der als Neurotechnologie bekannt ist). Apple hat zum Beispiel patentiertes Gehirnlesen AirPods. Anfang des Jahres haben Forscher des südkoreanischen Ulsan National Institute of Science and Technology (UNIST) eine Gesichtsmaske erstellt Sie behaupten, sie könnten die unmerklichen Veränderungen im Gesicht des Trägers analysieren und so menschliche Emotionen in Echtzeit erkennen.

Manche benötigen keine neuen Geräte, um Emotionen zu lesen; sie nutzen Daten unserer bestehenden Geräte; schon 2018 hat das US National Institute of Health festgestellt, dass Mithilfe der Daten der Smartwatch konnten Forscher die Emotionen der Träger mit einem angemessenen Grad an Genauigkeit bestimmen. Heute hat das Kinderkrankenhaus Holland Bloorview Holly Das System ermittelt anhand der von Smartwatches und Fitnesstrackern erfassten Herzdaten die Emotionen von Kindern und zeigt diese dann in einer App für Betreuer an.

Wearables, die Emotionen scannen, haben eine gute Seite. Das Forschungsprojekt der University of West Scotland verwendet Eine Mischung aus Gesichtsanalyse und Daten tragbarer Geräte, um die Emotionen von Menschen mit Autismus-Spektrum-Störung besser zu verstehen. Fühltherapeutika bietet ein tragbares Back-End-Datenanalysesystem zur Analyse von Emotionen für medizinische Behandlungen, einschließlich Psychotherapie.

Einige Initiativen zum Emotionslesen konzentrieren sich auf das Wohlbefinden der Mitarbeiter, insbesondere in Berufen mit hohem Stress. Das Oscar Kilo-Programm der britischen Polizei hat ausprobiert Wearables zur Überwachung des emotionalen Zustands von Beamten in besonders stressigen Situationen, einschließlich Ermittlungen zum Einsatz von Schusswaffen und zur Ausbeutung von Kindern.

Datenschutz

Neben diesen positiven Nutzen sieht Nita Farahany, Robinson O. Everett Distinguished Professor of Law & Philosophy an der Duke Law School, auch eine potenzielle Schattenseite.

„Die Gehirndaten, die diese Geräte sammeln, werden nicht in traditionellen Laborumgebungen oder in klinischen Forschungsstudien gesammelt, die von Ärzten und Wissenschaftlern durchgeführt werden“, sagte sie. sagte, Rede bei einer Ted-Veranstaltung.

„Stattdessen werden es die Verkäufer dieser neuen Geräte sein. Genau die Unternehmen, die unsere Daten seit Jahren kommerzialisieren“, fügte sie hinzu. Sie argumentiert, dass diese Daten persönlicher sein werden als die Daten, die wir in der Vergangenheit geteilt haben, weil sie den Teil von uns repräsentieren, den wir normalerweise zurückhalten.

Die Neurorights Foundation, eine gemeinnützige Organisation mit Ursprung an der Columbia University, konzentriert sich auf den Schutz der Menschenrechte vor dem potenziellen Missbrauch oder Missbrauch der Neurotechnologie. Im April 2024 veröffentlichte sie einen Bericht mit dem Titel Schutz von Gehirndaten: Bewertung der Datenschutzpraktiken von Unternehmen der Verbraucherneurotechnologie. Die Studie untersuchte 30 Unternehmen, die nicht medizinisch zertifizierte Verbrauchergeräte anboten, die neuronale Daten sammelten, und kam zu dem Ergebnis, dass 29 von ihnen „offenbar Zugriff auf die neuronalen Daten des Verbrauchers haben und diesen Zugriff nicht sinnvoll einschränken“. Sie fügte hinzu, dass die Richtlinien dieser Unternehmen es ihnen ermöglichten, Daten mit Dritten zu teilen.

Von der Datenanalyse zur Fernsteuerung

Welche Möglichkeiten ergeben sich, wenn Unternehmen immer besser darin werden, Emotionen zu lesen und zu registrieren? Am banalen Ende des Spektrums könnte das Verständnis dessen, was Menschen begeistert oder langweilt, Aufgaben wie Split-Tests verschiedener Website-Designs enorm voranbringen. Interessanter ist jedoch, dass es dabei hilft, ein zutiefst persönliches Bild der Interessen einer Person zu zeichnen, das weit über die bloße Verfolgung dessen hinausgeht, was diese Person online durchsucht.

Unternehmen könnten versuchen, Daten bei der Entscheidungsfindung zu verwenden. Beispielsweise könnte eine Kranken- oder Lebensversicherung Ihren emotionalen Zustand berücksichtigen, wenn sie Ihre Eignung für eine Police beurteilt.

Eines der vielleicht gruseligsten Szenarien ist die Vorstellung emotionaler Rückkopplungsschleifen. Wenn Sie dachten, ein Unternehmen würde Ihnen Social-Media-Beiträge basierend auf Ihren Klicks liefern, stellen Sie sich vor, es würde Ihnen Inhalte basierend auf Ihren Gefühlen nach und nach liefern. Facebook bereits experimentiert mit der gezielten Manipulation der Gefühle von Menschen über soziale Medien vor über zehn Jahren.

Diese emotionalen Schleifen könnten verheerend sein. Da die Technologie sich weiterentwickelt und persönlicher wirkt, wird ihre Fähigkeit, Emotionen zu beeinflussen, ebenso mächtig wie ihre Fähigkeit, sie zu erkennen. Wir haben bereits gesehen, Anschuldigungen von generativen KI-Produkten, die zu Selbstmorden beitragen.

Rechtlicher Schutz

Einige Gesetze könnten von Regulierungsbehörden herangezogen werden, um Überschreitungen zu verhindern. Während nur wenige der im Bericht der Neurorights Foundation analysierten Unternehmen Gehirndaten ausdrücklich als persönliche Informationen anerkannten, vorschlagen dass es gemäß einiger Verbraucherdatenschutzbestimmungen wie der DSGVO eindeutig in diese Kategorie fällt. Das KI-Gesetz der EU regelt auch ausdrücklich die Verwendung von KI-gestützten Systemen, die biometrische Daten zur Emotionserkennung verwenden, indem es sie in einigen Umgebungen vollständig verbietet und diejenigen, die erlaubt sind, als Hochrisikosysteme mit strengen regulatorischen Anforderungen kategorisiert.

Der erbärmlich schlechte Datenschutz auf Bundesebene in den USA wird den Datenschutzaktivisten nicht den gleichen Trost spenden, aber die Bundesstaaten ziehen nach. Einige könnten in der Lage sein, Wearables zur Emotionserkennung im Rahmen bestehender Verbraucherdatenschutzgesetze in den Griff zu bekommen, während andere dazu übergehen, gehirnbasierte Daten herauszufiltern. Im Februar verabschiedete Colorado ein Rechnung ausdrücklicher Schutz neuronaler Daten. Kalifornien verabschiedete Rechnung im Oktober. Eine andere Möglichkeit könnte darin bestehen, emotionale Daten als biometrisch zu klassifizieren.

Die Arbeit an Wearables zur Emotionserkennung schreitet voran und der Markt wächst schnell. Technologie zur Emotionserkennung war 23.5 Milliarden Dollar wert im Jahr 2022 und wird bis 42.9 2027 Milliarden Dollar erreichen – eine durchschnittliche jährliche Wachstumsrate von 12.8 % über fünf Jahre. Es steht viel Geld auf dem Spiel. Andererseits steckt die rechtliche und ethische Arbeit in diesem Bereich noch in den Kinderschuhen. Neuronale und emotionale Daten als personenbezogene Daten zu behandeln – wenn nicht als Daten einer besonderen Kategorie mit zusätzlichem Schutz – ist kurzfristig ein kluger Schachzug, unabhängig davon, ob die Regulierungsbehörden das Thema geprüft haben oder nicht. Bei etwas so Mächtigem gilt: Je mehr Vorsicht, desto besser.