Sprachassistenten im Auto

Hinter den Kulissen von Knight Rider

05.01.2018
Von 


Nils Lenke leitet ein Team, das sich auf disruptive Innovationen in der Automobilindustrie konzentriert, insbesondere an der Multimodalität des HMI im Auto, der Fahrer- und Fahrzeuginnenraum­überwachung und der Gewinnung von Antworten aus unstrukturierten Daten. Er hat einen Doktortitel in Computerlinguistik, zwei Masterabschlüsse, ein Diplom und 13 Patente. Lenke vertritt Cerence auch im Aufsichtsrat des DFKI, Deutschlands führendem Forschungsinstitut für Künstliche Intelligenz.

Phase 3: Handeln

Ist der Intent des Nutzers vollständig verstanden, muss das System eine entsprechende Aktion auslösen, also zum Beispiel den Radiosender wechseln, eine E-Mail verschicken oder die Klimaanlage anschalten. All dies erfordert die Interaktion mit den unterschiedlichsten Komponenten und Services im Fahrzeug oder in der Cloud.

Wenn ein Nutzer etwa Informationen über einen Point of Interest (POI) sucht, wie die Öffnungszeiten eines Restaurants, dann holt sich das System diese Informationen aus einer Cloud-Datenbank. Nur grundlegende Informationen sind direkt im Fahrzeug gespeichert, zum Beispiel statische Karten, auf denen die geografische Lage von POIs wie Tankstellen und Supermärkten verzeichnet ist.

In Zukunft werden die Systeme dabei durch Einsatz von KI-Methoden ständig dazulernen, sich etwa merken, was die bevorzugte Tankstellenmarke des Fahrers ist, oder welche Restaurants er häufig frequentiert. Schon heute passen sich die Systeme an die einzelnen Sprecher an, indem sie die akustischen Modelle auf die Sprechweise und Stimmcharakteristiken des Sprechers durch Nachtraining der neuronale Netze adaptieren.

Die direkte Integration mit Klimaanlage, Radio und anderen Komponenten im Fahrzeug ist ein entscheidender Vorteil der Bordcomputer-Software gegenüber den Smartphones der Reisenden, die ebenfalls virtuelle Assistenten anbieten. Um gleichzeitig eine möglichst breite Funktionalität sicherzustellen, kann das natürliche Sprachverstehen im Fahrzeug zusätzlich mit digitalen Assistenten wie Alexa, Cortana oder Nina verbunden werden. Der Assistent empfängt dann die Befehle und sendet sie je nach Domäne an das zuständige Drittsystem.

Sprache stärkt Vertrauen in Fahrzeug-KI

Immer neue Modelle und Algorithmen sorgen dafür, dass die hier geschilderten Herausforderungen - etwa die Vorbehandlung von Audio-Aufnahmen oder das Erkennen von Named Entities - besser und besser gelöst werden. Was aus der Distanz betrachtet nach einem Nebenkriegsschauplatz auf dem Weg in den digitalen Straßenverkehr aussieht, ist für Fahrzeughersteller in Wirklichkeit in gleich doppelter Hinsicht von existenzieller Bedeutung.

Erstens müssen sie verhindern, dass Fahrer immer mehr Dinge im Auto - zum Beispiel Musik und Navigation - über ihr Smartphone erledigen anstatt über den Bordcomputer. Denn wer den direkten Kontakt zum Kunden verliert, der wird austauschbar.

Zweitens unterscheiden die wenigsten Nutzer zwischen den verschiedenen KI-Systemen im Auto. Künstliche Intelligenz ist für sie künstliche Intelligenz, egal ob es um virtuelle Assistenten im Auto oder autonomes Fahren geht. Einem Bordcomputer, mit dem sie einen intelligenten Dialog führen können, trauen sie deshalb eher zu, sie auch sicher durch den Stadtverkehr zu lenken. Hersteller können diesen Umstand nutzen und sich auf dem Weg zum selbstfahrenden Auto einen Vertrauensvorschuss erarbeiten, indem sie Sprachassistenten in ihren Fahrzeugen perfektionieren. (mb)