Sie nennen sich Siri, Alexa oder Cortana und sie suchen ihren Anwendern preisgünstige Flugverbindungen heraus, spielen Musik, buchen Bahn-Tickets oder unterstützen Teams bei der Organisation der Zusammenarbeit. Die privaten Sprachassistenten sind inzwischen allgegenwärtig. Nun kommt der Einsatz von natürlicher Sprache im Business-Umfeld voran.
Natural Language Processing, also das Steuern von Computern über Sprache, hat in den vergangenen Jahren sprunghaft zugelegt. Laut einer aktuellen Studie von Deloitte wird NLP inzwischen von 61 Prozent der befragten deutschen Unternehmen angewendet. Gründe dafür sind der Preisverfall der dafür notwendigen Rechenleistung, die zunehmende Digitalisierung aller Daten sowie das Verschmelzen von NLP mit den Disziplinen Machine Learning und Deep Learning.
Es liegt daher nahe, dass Business-Anwender auch mit Analytics-Systemen über eine Sprachschnittstelle interagieren. Anwender sollen sich mit den Daten regelrecht unterhalten können und - zunächst noch schriftlich - in einem Frage-Antwort-Spiel zu neuen Erkenntnissen gelangen. Der Mensch stellt Fragen, der Rechner zieht im Hintergrund die richtigen Daten. Da die Anwender dafür die Daten und ihre Struktur nicht mehr genau kennen müssen, sinkt die Eintrittshürden für professionelle Datenanalysen erheblich und noch mehr Anwender erhalten Zugang zu geschäftsfördernden Erkenntnissen.
Machine Learning unterstützt Verstehen
Obwohl Technologien für die natürliche Sprachverarbeitung bereits seit mehr als 20 Jahren zur Verfügung stehen, waren sie bisher in Umfang und Funktionalität immer stark begrenzt. Früher hätte man jede Frage, die ein Nutzer potenziell stellen könnte, einzeln programmieren müssen. Eine unmögliche Aufgabe, wenn man bedenkt, dass jedes Unternehmen, jede Abteilung, jeder Mitarbeiter, seine eigenen Produktbezeichnungen nutzt und ähnliche Dinge auf unterschiedliche Art und Weise ausdrückt. Hinzu kommt, dass sich Datensätze täglich ändern. Die Herausforderung lag also darin, mit Unterstützung von KI eine Technologie zu entwickeln, die gestellte Fragen wirklich verstehen kann, und nicht nur die Wörter in der Frage definiert.
Heute sind KI und ML-Algorithmen sogar schon in der Lage, Absichten hinter einer Frage erkennen zu können und sich nicht nur auf Keywords zu stützen. Ein solch intelligentes Analyseprogramm kombiniert nämlich statistisches Wissen über eine Datenquelle mit Kontextwissen über die "reale" Welt, um die richtigen Methoden zur Analyse von Fragen zu bestimmen.
Nehmen wir ein Beispiel: Bei einer Suchabfrage in Vertriebsdaten nach "Möbelverkauf in Deutschland", weiß das Programm, dass Filter wie "Produktkategorie" oder "Land" angewandt werden müssen. Dazu wird statistisches Wissen zu einer Datenquelle mit Kontextdaten über reale Sachverhalte kombiniert: "Möbel" ist in diesem Unternehmen ein häufiger Wert für das Feld "Produktkategorie", und "deutsche" ein Synonym für "Deutschland". Mittels dieser eingebetteten Unterstützung von Synonymen können Nutzer Erkenntnisse gewinnen und zugleich für ein und dasselbe Feld verschiedene Ausdrücke verwenden, etwa "Umsatz" oder "Buchungen".
Sogar Folgefragen stellen kein Problem mehr dar: Eine typische Frage im Vertrieb lautet beispielsweise: "Zeige mir die Verkaufszahlen meiner Produkte von diesem Quartal". Automatisch werden entsprechenden Ergebnisse angezeigt. Anschließend kann man direkt die Frage "Und von letztem?" stellen. Die Anwendung erkennt, dass es sich dabei um eine Anschlussfrage handelt, die sich ebenfalls auf "Verkaufszahlen" und "Quartal" bezieht. Der Vorteil: Die erste Frage muss nicht nochmal wiederholt und in Kontext gesetzt werden. Das ermöglicht Nutzern eine völlig natürliche Interaktion mit ihren Daten.
Saubere Daten für glaubwürdige Ergebnisse
Damit der natürliche Dialog zwischen Mensch und Daten auch funktioniert, müssen auf Datenseite weiterhin die gleichen Voraussetzungen erfüllt sein, die für alle leistungsstarken Data-Analytics-Lösungen bestehen: Das Datenmaterial muss sauber aufbereitet sein für die Analyse. Vor allem, wenn Daten aus unterschiedlichen Quellen und Fachbereichen kommen oder gleiche Werte in unterschiedlichen Formaten erfasst wurden, bedarf es einer guten Vorbereitung. Denn nur sauberes, gut aufbereitetes Datenmaterial führt auch zu glaubwürdigen Ergebnissen.
NLP überbrückt Datenkompetenz-Lücke
Laut Gartners jährlicher Umfrage unter Chief Data Officers werden bis 2020 die Hälfte der Unternehmen nicht über ausreichende KI- und Datenkompetenzen verfügen, um einen zusätzlichen Geschäftswert zu erzielen. NLP hat das Potenzial, diese dramatische Kompetenzlücke zu schließen, die viele Unternehmen derzeit noch daran hindert, fortschrittliche Technologien wie Data Analytics geschäftsfördernd zu nutzen. NLP-Anwendungen sind in der Lage, sich der Arbeits- und Kommunikationsweise der Nutzer anzupassen. Das erweitert nicht nur den potenziellen Anwenderkreis, sondern fördert auch die Akzeptanz neuer Technologien in den Fachbereichen. Dabei geht es nicht darum, jeden Mitarbeiter in einen Data Scientist zu verwandeln. Datenspezialisten werden weiterhin für strategischere Aufgaben wie das Data Management benötigt.
Die Auswirkungen sprachbasierter Datenanalysen auf die Businesswelt werden enorm sein. Egal ob internationaler Konzern oder Mittelständler ? Unternehmen wollen das Beste aus ihrem Datenschatz herausholen. Es wird die Art und Weise, wie die Menschen mit Daten arbeiten, verändern und so den Einsatz von Smart- und Selfservice-Analytics weiter beschleunigen.