Biofeedback ersetzt Umfragen und Likes

Alle grossen Tech-Unternehmen investieren heute in die Erforschung von künstlicher emotionaler Intelligenz. Mit der automatischen Gefühlserkennung wird die Kundenzufriedenheit endgültig zum Mass aller Dinge, schreiben GDI-Forscher in der Studie «Wellness 2030».
19 April, 2018 durch
Biofeedback ersetzt Umfragen und Likes
GDI Gottlieb Duttweiler Institute
 

Dies ist ein Auszug aus der GDI-Studie «Wellness 2030». Die vollständige Studie können Sie hier herunterladen.

Wenn Maschinen lernen, unsere Gefühle zu erkennen, können sie uns in Zukunft fast alle Wünsche von den Augen ablesen, und niemand muss mehr fragen, wie es uns geht. Im Oktober 2001 hat Toyota den Concept-Car «The Pod» vorgestellt. Das Auto konnte die Stimmung des Fahrers anhand seiner Reaktionen und seiner Fahrweise erkennen und diese an der Aussenseite des Wagens mit farbigen LEDs anzeigen – Rot fu?r Wut, Gelb fu?r glücklich, Blau für traurig – und einer Antenne, die wie ein Hundeschwanz wackelte. Der Pod war als «Auto der Zukunft» konzipiert, wurde aber nur als Concept-Car definiert und daher nie in Produktion genommen.

Die Technik zur Vermessung der Gefühle hat seither grosse Fortschritte gemacht und wird heute auf vielen Anwendungsfeldern getestet. Apps versuchen, Verhaltensmuster und Emotionen aus passiv verfolgten Smartphone-Daten abzuleiten. Allein an der Art und Weise, wie jemand sein Mobiltelefon nutzt, kann man erkennen, wie er sich fühlt. Welche Apps benutzt er oft? Wie oft textet er? Wie lange spricht er mit wem? Wie viele Schritte geht er, wann schläft er? In der Gesamtschau kann die Vielfalt der Smartphone-Daten sehr präzise Hinweise auf die geistige und körperliche Gesundheit des Nutzers geben. «Timewellspent» ist beispielsweise eine App, die Menschen hilft, ihre Bildschirmzeit zu kontrollieren. Dabei wurde untersucht, wie sich die Bildschirmzeit, die jemand mit bestimmten Apps verbringt, auf die Stimmung auswirkt. Fazit: Egal, welche App die User nutzten, mehr als 40 Minuten Bildschirmzeit pro Tag waren schlecht fürs Wohlbefinden.

In naher Zukunft dürften immer mehr Geräte, die wir alltäglich nutzen, mit biometrischen Sensoren, Gesichts- und Stimmerkennung ausgestattet sein, um unsere Gefühle zu analysieren. Durch Upgrades können Unternehmen diese Funktionen in Produkte integrieren, die wir bereits verwenden. Apple zum Beispiel hat kürzlich «Emotient» gekauft, eines der führenden Unternehmen für Gesichtserkennung. Möglicherweise wird Siri bald von sich aus Fragen wie solche stellen: «Dein Gesichtsausdruck ist traurig – sollte ich "Trainwreck" von iTunes herunterladen?»

Alle grossen Tech-Unternehmen investieren heute in die Erforschung von künstlicher emotionaler Intelligenz oder «Affective Computing» – also in die Entwicklung von Systemen und Geräten, die menschliche Gefühle erkennen, interpretieren, verarbeiten, simulieren und vorhersagen können. Mit der Software «HowWhoFeelInVideo» analysiert Amazon zum Beispiel Emotionen in Gesichtern aus gesampelten Videoclips. Polygram, ein Startup aus LA, hat eine Software entwickelt, die Gesichtsreaktionen auf freigegebene Fotos studiert. Laut Polygram kann die App Gesichtsausdrücke «lesen», diesen Gefühlen wie Langeweile, Glück und Interesse zuordnen und automatisch in Emojis übersetzen. Die Social-Media-App, die wie ein Snapchat-Instagram-Hybrid funktioniert, spuckt in Echtzeit den Gesichtsausdruck einzelner Follower aus, die die Fotos gerade anschauen. Und wohl kaum eine andere Neuerung wird Biometrie so rasch in unserem Alltag zur Selbstverständlichkeit machen wie die 3-D-Gesichtserkennung (Face ID) im neuen iPhone X von Apple. In Verbindung mit weiteren Daten aus anderen Quellen wie Sensoren in Kleidern, Möbeln und Toiletten entsteht so durch Innovation der Tech-Unternehmen Schritt für Schritt ein immer dichteres Netz der Gefühlserkennung. Dieses Netz gibt Aufschluss und Feedback zu unserem Wohlbefinden.

Das weckt natürlich auch Ängste. Drohen bald totale Überwachung und Manipulation? Werden wir alle von der Tech-Industrie ausgenutzt? Die Entwickler der «Artificial Emotional Intelligence» (AEI) sehen primär die Vorteile. AEI soll uns helfen, bessere Entscheidungen zu treffen. Ausserdem sprechen ökonomische Gründe für Emotion-Tracking: Kundenzufriedenheit lässt sich damit stets in Echtzeit und zudem einfacher, besser, billiger messen als mit den komplizierten herkömmlichen Verfahren der Kundenbefragungen. Mit der automatischen Gefühlserkennung wird die Kundenzufriedenheit endgültig zum Mass aller Dinge. Alle Anbieter von Konsum-Produkten und Dienstleistungen werden sich an diesen Zufriedenheitswerten orientieren müssen.



Lesen Sie in der GDI-Studie «Wellness 2030» über die Vorteile der «Artificial Emotional Intelligence» für Bildung, Konsum und Selbsterkenntnis.

Hören Sie unseren Podcast zum Thema.

Diesen Beitrag teilen
Archiv