Emotional AI, auch als Emotions-KI oder Affective Computing bekannt, nutzt künstliche Intelligenz, um den emotionalen Zustand eines Nutzers zu analysieren. Dazu werden Computer Vision, Audio-/Stimmeingabe, Sensoren und/oder Textanalyse verwendet. Basierend auf dieser Analyse können spezifische, personalisierte Aktionen durchgeführt werden, die auf die Stimmung des Kunden abgestimmt sind.
Affective Computing: Primäres Anwendungsgebiet
Obwohl kein ganz neues Konzept, wird sich Affective Computing wahrscheinlich erst in sechs Jahren oder noch später mehrheitlich durchsetzen, da es sich derzeit eher um ein Plattformgeschäft als um eins für persönliche Geräte handelt. Die Technologie wird in den meisten bekannten Anwendungsfällen im B-to-B-to-C-Kontext eingesetzt, etwa in einem virtuellen Assistenten, der von Touristen genutzt wird, oder beim Testen von Verbraucherprodukten.
Obwohl in der Regel von einem Unternehmen als Teil einer Plattform eingesetzt, könnte die Technologie auf jedem Smartphone oder anderen persönlichen Geräten mit Kamera oder Mikrofon verwendet werden. Da diese in großem Mengen zur Verfügung stehen, fließen die Investitionen hauptsächlich in das KI-Modell. Einige Anbieter haben Prototypen von Smartphone-Apps entwickelt, die die Kamera und/oder das eingebaute Mikrofon nutzen, um eine Vielzahl von Emotionen zu erkennen.
Private-Equity-Investitionen in Unternehmen, die Affective Computing anbieten, scheinen im Vergleich zu anderen Branchen eher im mittleren Bereich zu liegen. Die Automobilindustrie investiert in die computervisuelle Emotionsanalyse zur Überwachung der Fahreraktivität, doch die Übernahme der Technologie in kommerzielle Produkte war bisher begrenzt.
Emotional AI: Boom dank Pandemie
Haben sich die Implementierungen während der Pandemie im Jahr 2020 deutlich verlangsamt, erlebt der Bereich jetzt wieder einen Aufschwung. So mussten sich die Anbieter von Plattformen für Produkt- und Servicetests von Angeboten im Labor auf solche per Fernzugriff umstellen, was voraussichtlich ein langfristiger Trend sein wird. Contact Center sind nach wie vor eine der Hauptbranchen für die Einführung von sprachbasierter Emotionserkennung.
Die Gerätehersteller wiederum haben bisher gezögert, Emotional AI in persönliche Geräte oder Geräte für das vernetzte Zuhause einzubauen. Das Potenzial ist jedoch groß: Jährlich werden mehr als 1,5 Milliarden Smartphones verkauft, und es gibt viele Millionen Smartwatches, Tablets und Smart-Home-Geräte, von denen viele mit Kameras und/oder Mikrofonen ausgestattet sind. Sobald die Technologie diesen Wendepunkt erreicht hat, erwartet Gartner ein recht schnelles Wachstum.
Aufgrund früherer Untersuchungen wurde eigentlich davon ausgegangen, dass einige Digitalriesen längst Emotions-KI-fähige Geräte auf den Markt bringen, insbesondere VPA-fähige (Virtual Personal Assistant) Lautsprecher. Stattdessen hat nur Amazon ein persönliches Gerät auf dem Markt, nämlich das Amazon Halo Band. Vermutlich arbeiten aber auch andere Unternehmen wie Apple und Google an dieser Technologie, allerdings mit einem unbekannten Zeit- und Ankündigungsplan.
Affective Computing: Disruptionspotenzial
Wenngleich es sich um eine neue Technologie handelt, wird Emotional AI bereits in vielen verschiedenen Branchen wie Finanz-/Versicherungswesen, Automobilindustrie, Konsumgüter, Tourismus und öffentlicher Sektor (z. B. Bildung) eingesetzt - und das sehr disruptiv. Affective Computing ist wahrscheinlich eine der vielseitigsten Technologien, da sie eine Reihe von Anwendungsfällen unterstützen kann. Hier drei Beispiele:
Callcenter: Mithilfe des Mikrofons kann Emotional AI Gespräche analysieren und den Callcenter-Agenten in Echtzeit Rückmeldung darüber geben, wie sie auf das Verhalten des Kunden reagieren sollen. Je nach Reaktion des Kunden erhält der Agent entsprechende Hinweise (verlangsamen, pausieren, darauf eingehen). Diese Verhaltensanpassungen in Echtzeit können das Ergebnis jedes Anrufs erheblich beeinflussen.
Workshop: Via Mikro und Kamera kann Emotions-KI die Gruppeninteraktionen und das individuelle Engagement während einer Schulung oder eines Workshops analysieren. So lässt sich feststellen, ob die Teilnehmer die Schulung als nützlich, ansprechend, langweilig, aufschlussreich, überfordernd, spannend oder herausfordernd empfinden.
Kundengespräch: In einem Szenario hat eine Bank eine bestimmte Anzahl ertragsschwacher Kredite, und die Aufgabe besteht darin, die betreffenden Personen zu kontaktieren, um das Geld zurückzubekommen. Die Technologie kann mithilfe ausgewählter Kriterien die Agenten bestimmten Kunden zuordnen, was zu einer höheren Erfolgsquote bei der Rückzahlung von Krediten führt.
Wer Emotional AI für eine bessere Interaktion mit Kunden nutzen möchte, hat jetzt den richtigen Zeitpunkt erwischt. Folgende Aktionen empfehlen sich für Unternehmen:
Identifizierung von Anwendungsfällen, in denen die Erkennung von Emotionen den größten Einfluss haben könnte, beispielsweise in einem Self-Service-Support-Szenario oder bei virtuellen Assistenten auf Smartphones oder VPA-Lautsprechern, die sich an die spezifischen Bedürfnisse des Kunden anpassen können.
Untersuchung speziell von Anwendungsfällen im Bereich Kundenerlebnis, zum Beispiel die Verwendung einer Frontkamera zur Erkennung des Lernstatus eines Schülers in Echtzeit. Dies ist der Bereich, in dem Gartner-Analysten bereits große Erfolge sehen; außerdem können Unternehmen hier in Krisenzeiten einen Unterschied machen.
Die Fortschritte, die mit der KI-Technologie für Emotionen erzielt werden können, sind enorm. Lassen sich die Emotionen bei bestimmten Erfahrungen, etwa bei der Interaktion mit einem virtuellen Assistenten, digital erfassen, ist das ein echter Gamechanger. Letztendlich sorgt Affective Computing dafür, die Mensch-Maschine-Interaktion menschlich akzeptabler zu machen. (mb)