Dank künstlicher Intelligenz (AI) und Affective Computing werden künftig immer mehr intelligente Geräte in der Lage sein, menschliche Gefühle und Stimmungen anhand bestimmter Daten und Fakten zu erfassen und Situationen entsprechend zu analysieren.
Schon heute erfreuen sich "intelligente Agenten" wie die virtuellen Assistenten zunehmender Beliebtheit. Hierzu zählen Siri von Apple, Cortana von Microsoft sowie Google Assistant. Sie alle nutzen bewährte technologische Ansätze wie natürliche Sprachverarbeitung und verstehen natürlich gesprochene Sprache, sind aber noch nicht imstande, menschliche Gefühle zu erkennen. Künstliche emotionale Intelligenz ("Emotion AI") könnte hier den Durchbruch bringen. Im nächsten Schritt müssten die Systeme die Gefühlslage des Anwenders erkennen und entsprechend reagieren. Zugleich sollten sie aber auch menschlicher erscheinen, um eine komfortablere, natürlichere Interaktion mit dem Nutzer zu ermöglichen.
Angemessene Reaktion auf menschliche Gefühle
Intelligente Agenten - das können alle Geräte sein, die ihre Umgebung über Sensoren wahrnehmen und mittels Aktuatoren auf sie reagieren. Roboter in Form persönlicher Assistenten (PAR) wie beispielsweise Sanbot von Qihan Technology oder Pepper von SoftBank Robotics werden auf "Menschlichkeit" trainiert, indem sie lernen, verschiedene Gefühlszustände zu unterscheiden und entsprechend zu reagieren. Ziel ist es, dass die PARs sowohl per Körpersprache als auch verbal angemessen auf die Emotionen der Menschen reagieren, mit denen sie im Kontakt sind. Erkennt der Roboter Pepper zum Beispiel, dass sein Gegenüber von der Interaktion enttäuscht ist, sollte seine Reaktion eine Entschuldigung ausdrücken.
Emotion AI - die ersten Schritte sind getan
Die intelligenten Geräte der Zukunft können die Gefühle ihrer Anwender deutlich besser analysieren und auf sie reagieren. Diese Fähigkeiten verdanken sie AI-Systemen, die die Mimik und den verbalen Ausdruck bestimmter Emotionen mittels Deep-Learning-Technologien messen. Diese Systeme spielen eine immer wichtigere Rolle bei der Interaktion zwischen Mensch und Maschine.
Die ersten Schritte sind bereits getan: So setzt das Videospiel "Nevermind" auf eine emotionsbasierte "Biofeedback"-Technologie von Affectiva und Intel, um die Stimmung des Spielers zu ermitteln und das Niveau und den Schwierigkeitsgrad entsprechend anzupassen. Je weiter ein Spieler in die virtuelle Welt eindringt, desto düsterer wird die Stimmung und desto schwieriger werden die Logikrätsel. Das Horror-Game spürt, wann der Spieler Angst hat oder sich entspannt, und passt das Niveau der jeweiligen Gefühlslage an.
Diese Technologie wird auch in anderen Bereichen eingesetzt. So wird gerade an neuen In-Car-Systemen gearbeitet, die das Reaktionsvermögen der Bremssysteme auf das wahrgenommene Stresslevel des Fahrers anpassen. Erkennt ein damit ausgestatteter Wagen beim Fahrer eine angespannte Stimmung, erhöht er automatisch die Reaktionsfähigkeit der Bremsen, um zu verhindern, dass das Auto beim Heranfahren an eine belebte Kreuzung ruckartig zum Stehen kommt.
Sowohl das Videospiel als auch das Fahrzeug nutzen Kameras und eine AI-basierte Emotion-Tracking-Software, um Emotionen in Echtzeit zu messen.
Emotion AI im Gesundheitswesen und der Autoindustrie
Die Automobilindustrie und das Gesundheitswesen zählen zu den ersten Branchen, die den Einsatz von Funktionen prüfen, mit denen sich Gefühle messen lassen.
Wie das obige Beispiel zeigt, loten die Autohersteller zurzeit die Verwendung von Emotion-Detection-Systemen in Fahrzeugen aus. Indem sie die Stimmung der Person am Steuer erfassen, können die Systeme auf Wut, Frustration, Müdigkeit oder Anspannung reagieren und damit die Sicherheit im Straßenverkehr erhöhen.
Im Bereich Healthcare könnten tragbare Geräte die psychische Gesundheit der Patienten rund um die Uhr messen und notfalls die Ärzte oder das Pflegepersonal benachrichtigen. Die "Wearables" könnten alleinlebenden älteren Menschen oder Kindern dabei helfen, ihre mentale Verfassung zu überwachen. Überdies könnten Ärzte oder Pflegepersonal mentale Muster leichter erkennen und entscheiden, wann und wie sie mit ihren Patienten kommunizieren.
Die Technologien, die zurzeit eingesetzt werden, um Gefühle zu erkennen und auf sie zu reagieren, sind überwiegend proprietär und auf einige, wenige Anwendungen zugeschnitten. Auch zahlreiche global agierende Marken haben diese Technologien in den letzten Jahren für Studien im Bereich Produkt- und Markenwahrnehmung verwendet. Doch können wir davon ausgehen, dass sich die großen Technologie- und Medienunternehmen in den nächsten zwei Jahren zusammentun werden, um diesen Bereich auszubauen und Lösungen anzubieten, die unser Leben schon bald spürbar verbessern werden.