Die Prognosen über die von Mensch und Maschine produzierten Datenmengen wachsen fast so schnell wie die Datenmasse selbst. So gingen die Marktforscher von IDC Ende 2018 davon aus, dass das weltweite Datenaufkommen bis zum Jahr 2025 auf stolze 175 Zettabyte ansteigen wird. 80 Prozent dieser Daten, so die gleiche Studie, liegen in Unternehmensnetzwerken. Würde man diese Daten auf handelsübliche DVDs pressen, ergäbe das einen Stapel, der 23-mal der Entfernung zwischen Erde und Mond entspricht. Im Jahr davor, 2017, kamen die Marktforscher auf eine Gesamtmenge von "nur" 163 Zettabyte.
Mit der absoluten Datenmenge wächst auch der Anteil der unstrukturierten Daten, Informationen also, die sich nicht ordentlich in die Spalten und Zeilen einer Datenbank einsortieren lassen. IDG prognostiziert, dass in zwei bis drei Jahren schon 93 Prozent aller digitalen Daten eben solche unstrukturierten Daten sein werden – bei Wachstumsraten jenseits von 60 Prozent. Die Marktforscher von Gartner kommen zu ähnlichen Einschätzungen. Ein Großteil davon werden Unternehmensdaten wie E-Mail- und Textnachrichten, Audiodateien, Servicedaten, Videodateien, Social-Media-Posts sein.
Wertvolle Erkenninsse aus diesen Daten zu ziehen, die das eigene Geschäft voranbringen, wird damit nicht einfacher. Die absolute Menge von Daten und der relativ große Anteil in unstrukturierter Form erfordern Lösungen, die auf dem letzten technologischen Stand sind. Das heißt heute und in den kommenden Jahren: Lösungen, die mit künstlicher Intelligenz (KI) arbeiten.
Text-Classifier helfen mit KI beim Textverständnis
Wenn intelligente Roboter und Algorithmen für die Verarbeitung unstrukturierter Informationen eingesetzt werden, brauchen sie die Fähigkeit, den Inhalt von Texten zu "verstehen", also die wichtigsten Begriffe (und ihre Synonyme) zu erkennen. Nur so ist es möglich, die Inhalte als Anfragen zu bearbeiten oder zur weiteren Bearbeitung weiterzuleiten.
Die Anführungszeichen an dieser Stelle sind wichtig: Denn Maschinen werden mutmaßlich niemals in der Lage sein, ein menschenähnliches Verständnis für was auch immer zu entwickeln, weil Sensoren und ein auf statistischen Methoden beruhendes Textverständnis das komplexe System Mensch nicht ersetzen können. Aber das macht nichts: So genannte Text-Classifier, Computerprogramme mit der Fähigkeit zur Texterkennung, können trotzdem eine große Hilfe bei der Bewältigung der riesigen Datenmengen sein.
Use Cases entlang der gesamten Prozesskette
Use Cases für Text-Classifier gibt es in jedem Unternehmen, das sich, auch in Teilschritten, mit Prozessautomatisierung beschäftigt. So kann automatische Texterkennung zum Beispiel im Inputmanagement eingesetzt werden, über das eingehende E-Mails oder Supportanfragen an zentrale Stellen ("info@firma.de") geschickt und den zuständigen Bearbeitern zugewiesen werden sollen. Normalerweise müsste jemand solche Mails lesen, wissen, wer für das Thema zuständig ist oder wessen Skills benötigt werden, und die Mails entsprechend weiterleiten. Mithilfe eines Text-Classifiers auf der Basis von KI geht das nicht nur wesentlich schneller, sondern auch ohne echten Personalaufwand.
Text-Classifier lassen sich aber auch auf Daten angewendet werden, die bereits im Unternehmen liegen. Jedes Unternehmen verfügt wahrscheinlich über eine große Menge solcher Informationen, die durchaus sehr wertvoll sein und neue Erkenntnisse liefern könnten – wenn sie denn klassifiziert sind, also auf wertige Inhalte hin analysiert wurden.
NLP in Zeiten künstlicher Intelligenz
Text-Classifier arbeiten mit dem Natural Language Processing (NLP) genannten Verfahren an der Verarbeitung von natürlicher Sprache, für die es logisch mehr oder weniger nachvollziehbare Regeln gibt. In ihrer Summe sind diese Regeln aber sehr komplex und ändern sich zudem auch laufend mit der Veränderung von Sprache insgesamt. Zudem werden zentrale Informationen in natürlich gesprochener oder geschriebener Sprache nicht so strukturiert übermittelt wie in einem Datensatz. NLP muss somit auch in der Lage sein, wichtige Informationen in einem Umfeld unwichtiger Rohdaten zu erkennen – zum Beispiel anhand von Schlüsselwörtern oder eines bestimmten Kontextes.
Lesen Sie mehr zum Thema Natural Language Processing:
Natural Language Processing, im Deutschen oft auch als Computerlinguistik bezeichnet, ist keine ganz neue Erfindung, sondern begleitet die ebenfalls nicht neue Entwicklung der künstlichen Intelligenz (KI) im Grunde genommen schon seit mehr als 60 Jahren. Damals wie heute wurde und wird versucht, immer bessere – intelligentere – Maschinen für das Verständnis unter anderem von Texten zu entwickeln – über die Definition von Regeln. Ein streng regelbasiertes Verständnis stößt bei vielen Texten aber schnell an Grenzen, denn Regeln alleine reichen in dem komplexen und alles andere als eindeutigen System nicht aus. Ironie, Mehrdeutigkeit, Subtext – das alles lässt sich allein mit Regeln schwer oder gar nicht erfassen. Machine Learning verfolgt daher einen anderen Ansatz: Hier erarbeitet sich der Algorithmus, zunächst und auf absehbare Zeit mit menschlicher Anleitung, seine Regeln selbst auf Basis statistischer Wahrscheinlichkeiten und in Abhängigkeit vom Kontext.
Das so genannte Deep Learning geht noch einen Schritt weiter und schafft es, über künstliche neuronale Netze und eine Vielzahl von Ebenen auch komplexe Sprachzusammenhänge zu erkennen und zu "verstehen". Regeln benötigt Deep Learning nicht, weil es sich eigene schafft.
Training on the Job: So lernt KI
Künstliche Intelligenz lernt mit Daten. Am Anfang handelt es sich um gelabelte oder klassifizierte Daten, bei denen beispielsweise von menschlicher Hand hinterlegt ist, um welche Art von Information es sich handelt oder welche Informationen aus einem Text destilliert werden sollen. Je mehr dieser Hinweise der Algorithmus bekommt, desto besser kann er Zusammenhänge daraus ableiten und die gewonnenen Erfahrungen auf neue, völlig unbekannte Texte anwenden.
Um entsprechende Algorithmen zu trainieren, brauchen alle einschlägigen Projekte Trainingsdaten, also in diesem Fall Textdokumente. Das sind im Idealfall Dokumente, die das Unternehmen selbst gesammelt hat und die dem Business Case entsprechen oder ihm mindestens schon sehr nahekommen. IT-Dienstleister wie Sopra Steria Consulting können aber auch vortrainierte Algorithmen anbieten, die bereits mit einem einsatzfertigen Fundus an Wissen und Informationen kommen. Wichtig zu wissen: Diese vortrainierten Algorithmen werden nicht inklusive der Daten geliefert, die nach dem Training eher unwichtig sind. Sie kommen vielmehr mit erlernten Erfahrungen, sogenannten Modellen, die ihnen ein angemessenes Verhalten gemäß den speziellen Use Cases ermöglichen.