Smart Data schlägt Big Data. Allerdings: Kein Mensch kann in die Zukunft schauen. Kein Mensch kann Daten aus der Zukunft kennen, geschweige denn analysieren. Doch es gibt Methoden, wie man aus Daten aus der Vergangenheit auf zukünftige Trends und Entwicklungen schließen kann. Das ist Ziel und Aufgabe von Predictive Analytics, eine der zentralen Herausforderungen für digitale Unternehmen, die Kundenerlebnismanagement als kritischen Erfolgsfaktor begreifen.
Predictive Analytics ist nicht unbedingt neu. Viele Unternehmen nutzen im Vertrieb ein Forecasting-System, beispielsweise Funnel-Management, um die vorhandenen Leads monetär nach vermutlichem Volumen, nach voraussichtlicher Dauer bis zum Abschluss und mit einer Wahrscheinlichkeit des erfolgreichen Abschlusses zu bewerten. Dann nutzen diese Unternehmen auch bereits Predictive Analytics.
Auch eine Vorschlagsmaschine in einem Webshop ist eine Anwendung von Predictive Analytics. Oder das Anwenden von Marketing-Modellen, um Entscheidungshilfen zu bekommen, welche Anzeige auf welcher Seite eines Mediums erscheinen soll, zählt dazu. All das sind Formen von Predictive Analytics, nämlich die Anwendung von Analytik zum Berechnen von Wahrscheinlichkeiten des Eintretens von Ereignissen wie
der Abschluss eines Vertrages,
das Annehmen von Kaufempfehlungen,
die Chance und das Risiko des Treffens von Maßnahmen etc.
Predictive Analytics gehört genau wie Data Discovery (Entdecken von Zusammenhängen in Datenmengen) und Datenvisualisierung in die Familie der Konzepte von Analytik. Alle zusammen gehören mit den Konzepten von Performance Management und deren Umsetzungsformen zu Business Intelligence.
Im Zuge der Digitalisierung der Welt wird Predictive Analytics aber immer wichtiger. Es dient insbesondere dazu, die Spuren der digitalen Kunden im Big Data quer über alle Kanäle und Kontaktpunkte zu entdecken, zu analysieren und zukünftiges Kundenverhalten und Kundeneigenschaften vorherzusagen. Aus der Datenvielfalt und dem Datenvolumen aus mannigfaltigen Datenquellen wird aus Big Data gleichsam die Essenz herausgefiltert: Smart Customer Data. Das bedeutet neue Einsichten in Kunden und Markt und bietet die Basis für bessere Entscheidungen, Aktionen und Maßnahmen. Schließlich wird Predictive Analytics zum Impulsgeber für Innovation.
- Die Begriffe rund um Big Data
Big Data - was ist das eigentlich? Jeder spricht drüber, jeder versteht etwas anderes darunter. Klicken Sie sich durch unser Glossar mit den wichtigsten und meistgenutzten Begriffen (manche sagen auch "Buzzwords") und verstehen Sie, was damit genau gemeint ist. <br /><br /> <em>zusammengestellt von <a href="http://www.kommunikation-in-sendling.com/" target="_blank">Kriemhilde Klippstätter</a>, freie Autorin und Coach (SE) in München</em> - Ad Targeting
Der Versuch, die Aufmerksamkeit des potenziellen Kunden zu gewinnen, meist durch "passgenaue" Werbung. - Algorithmus
Eine in Software gegossene mathematische Formel mit der ein Datensatz analysiert wird. - Analytics
Mit Hilfe von Software-basierenden Algorithmen und statistischen Methoden werden Daten interpretiert. Dazu benötigt man eine analytische Plattform, die aus Software oder Software plus Hardware besteht und die die Werkzeuge und Rechenpower bereitstellt, um unterschiedliche analytische Abfragen durchführen zu können. Es gibt eine Reihe unterschiedlicher Formen und Einsatzzwecke, die in diesem Glossar näher beschrieben sind. - Automatic Identification and Capture (AIDC)
Jede Methode der automatischen Identifizierung und Datensammlung über eine Gegebenheit und die nachfolgende Speicherung in ein Computersystem. Etwa die Informationen aus einem RFID-Chip, die ein Scanner ausliest. - Behavioral Analytics
Behavioral Analytics nutzt Informationen über das menschliche Verhalten, um die Absichten zu verstehen und zukünftiges Verhalten vorhersehen zu können. - Business Intelligence (BI)
Der generelle Ausdruck für die Identifizierung, Herkunft und Analyse der Daten. - Call Detail Record (CDR) Analyse
Diese enthält Daten, die die Telekommunikationsunternehmen über die Nutzung von Mobilfunkgesprächen – etwa Zeitpunkt und Dauer der Gespräche – sammeln. - Cassandra
Ein verteiltes Datenbank-Verwaltungssystem für sehr große strukturierte Datenbanken („NoSQL“-Datenbanksystem) auf Open-Source-Basis (Apache). - Clickstream Analytics
Bezeichnet die Analyse der Web-Aktivitäten eines Benutzers per Auswertung seiner Klicks auf einer Website. - Competitive Monitoring
Tabellen, in denen die Aktivitäten der Konkurrenz im Web automatisch gespeichert werden. - Complex Event Processing (CEP)
Ein Prozess, bei dem alle Aktivitäten in den Systemen einer Organisation überwacht und analysiert werden. Bei Bedarf kann sofort in Echtzeit reagiert werden. - Data Aggregation
Das Sammeln von Daten aus unterschiedlichen Quellen für die Erstellung eines Berichts oder für eine Analyse. - Data Analytics
Ein Stück Software, mit dem Informationen aus einem Datensatz gezogen werden. Das Ergebnis kann ein Report, ein Status oder eine Aktion sein, die automatisch gestartet wird. - Data Architecture and Design
Legt dar, wie Unternehmensdaten strukturiert sind. Meist erfolgt das in drei Prozessschritten: Begriffliche Abbildung der Geschäftseinheiten, logische Abbildung der Beziehungen innerhalb der Geschäftseinheit sowie die physikalische Konstruktion eines Systems, das die Tätigkeiten unterstützt. - Data Exhaust
Die Daten, die eine Person bei ihrer Internet-Aktivität "nebenbei" erzeugt. - Data Virtualization
Der Prozess der Abstraktion verschiedener Datenquellen durch eine einzige Zugriffsschicht auf die Daten. - Distributed Object
Ein Stück Software, das es erlaubt, mit verteilten Objekten auf einem anderen Computer zusammenzuarbeiten. - De-Identification
Das Entfernen aller Daten, die eine Person mit einer bestimmten Information verbindet. - Distributed Processing
Die Ausführung eines Prozesses über verschiedene per Netzwerk verbundene Computer hinweg. - Drill
Apache Drill ist eine Open-Source-SQL-Suchmaschine für Hadoop- und NoSQL-Datenmanagement-Systeme. - Hadoop
Ein freies, in Java geschriebenes Framework der Apache Foundation für skalierbare, verteilt arbeitende Software in einem Cluster. Es basiert auf dem bekannten MapReduce-Algorithmus der Google Inc. sowie auf Vorschlägen des Google-Dateisystems. - HANA
SAPs Software-und Hardware-Plattform mit In-Memory-Computing für Echtzeitanalysen und große Transaktionsvolumen. - In-Database Analytics
In-Database Analytics bezeichnet die Integration der Analysemethoden in die Datenbank. Der Vorteil ist, dass die Daten für die Auswertung nicht bewegt werden müssen. - In-Memory Database
Jedes Datenbanksystem, das den Hauptspeicher für die Datenspeicherung benutzt. - In-Memory Data Grid (IMDG)
Die verteilte Datenspeicherung im Hauptspeicher vieler Server für schnellen Zugriff und bessere Skalierbarkeit. - Machine-generated Data
Alle Daten, die automatisch von einem Rechenprozess, einer Applikation oder einer nicht-menschlichen Quelle erzeugt werden. - Map/reduce
Ein Verfahren, bei dem ein großes Problem in kleinere aufgeteilt und an verschiedene Rechner im Netz oder Cluster oder an ein Grid aus unterschiedlichen Computern an verschiedenen Standorten ("map") zur Bearbeitung verteilt wird. Die Ergebnisse werden dann gesammelt und in einem (reduzierten) Report dargestellt. Google hat sein Verfahren unter der Marke "MapReduce" schützen lassen. - Mashup
Dabei werden unterschiedliche Datensätze innerhalb einer Applikation so kombiniert, dass das Ergebnis verbessert wird. - NoSQL
Datenbanken, die nicht relational aufgebaut sind und mit denen sich große Datenvolumina handhaben lassen. Sie benötigen keine festgelegten Tabellenschemata und skalieren horizontal. Beispielsweise ist Apache Cassandra eine NoSQL. - Operational Data Store (ODS)
Darin werden Daten aus unterschiedlichen Quellen gesammelt damit noch weitere Operationen ausgeführt werden können, bevor die Daten in ein Data Warehouse exportiert werden. - Pattern Recognition
Die Klassifizierung von automatisch erkannten Mustern. - Predictive Analytics
Diese Form der Analytics nutzt statistische Funktionen in einem oder mehreren Datensätzen, um Trends oder zukünftige Ereignisse vorherzusagen. - Recommendation Engine
Per Algorithmus werden die Kundenbestellungen einer Website analysiert und sofort passende Zusatzprodukte ausgesucht und angeboten. - Risk Analysis
Die Anwendung statistischer Methoden auf einen oder mehrere Datensätze, um das Risiko eines Projekts, einer Handlung oder Entscheidung abschätzen zu können. - Sentiment Analysis
Dabei werden Einträge von Leuten in sozialen Netzwerken über ein Produkt oder ein Unternehmen statisch ausgewertet. - Variable Pricing
Dabei folgt der Kaufpreis eines Produkts dem Angebot und der Nachfrage. Das erfordert die Echtzeit-Überwachung von Konsum und Lagerbestand. - Parallel Data Analysis
Ein analytisches Problem wird in Teilaufgaben aufgebrochen und die Algorithmen werden auf jede Problemkomponente zeitgleich und parallel angewendet. - Query Anal
In diesem Prozess wird eine Suchanfrage optimiert, um das bestmögliche Ergebnis zu erhalten. - Reference Data
Daten, die ein physikalisch oder virtuell vorhandenes Objekt und seine Eigenschaften beschreiben.
Predictive Analytics basiert im Wesentlichen auf Data Mining. Klassische Data-Mining-Methoden umfassen beispielsweise Regressionsanalyse, Klassifizierung (Clustering), neuronale Netze sowie Assoziationsanalysen. Über ein solches Erkennen von Mustern in Datenmengen nutzt Predictive Analytics auch statistische Berechnungen, maschinelles Lernen, Elemente der Spieltheorie sowie Methoden des Operations Research, wie Optimierungsrechnung und Simulationsverfahren. Dahinter steckt demnach eine ganze Menge Mathematik und Statistik, heute auch noch Linguistik, wenn Text Mining, bzw. Textanalytik auf nicht-strukturierte Daten wie Texte, Blogs, Tweets etc. angewendet werden soll.
Predictive Analytics ist der heute am meisten verwendete Begriff hierzu, aber er steht nur gleichberechtigt neben Descriptive Analytics und Prescriptive Analytics. Was ist also was?
Descriptive Analytics beschäftigt sich mit der Vergangenheit. Es dient dazu, Beziehungen zwischen Kunden und Produkten zu verstehen. Ziel ist es, von der Vergangenheit zu lernen, um mittels dieses Wissens in der Zukunft besser entscheiden zu können. Typische Beispiele sind OLAP-Analysen. Das Problem solcher Analysen besteht darin, dass man zwar Korrelationen aufdecken kann, aber solche Korrelationen rein zufällig sein können und daher nicht ausreichen, um Ursache-Wirkungs-Zusammenhänge zu identifizieren. Descriptive Analytics ist aber ein erster wichtiger Schritt, um neue, unbekannte und nicht-triviale Einsichten in Daten zu bekommen.
Predictive Analytics beschäftigt sich mit der Zukunft. Predictive Analytics ermöglicht die Abschätzung der Wahrscheinlichkeit des Eintretens eines zukünftigen Ereignisses. Das klingt im ersten Augenblick kompliziert, aber machen wir uns das an einem weiteren Beispiel klar, dem Kredit-Scoring: Hier soll die Wahrscheinlichkeit abgeschätzt werden, mit der ein Kunde die zukünftigen Ratenzahlungen eines gewährten Kredits nicht leisten könnte. Das dient der Risiko-Abschätzung einer Kreditvergabe und liefert so eine Entscheidungsunterstützung. Es werden also historische und Transaktionsdaten genutzt, um Muster in den Daten zu entdecken. Mittels statistischer Modelle und Algorithmen werden dazu Beziehungen in den verschiedenen Datenmengen identifiziert.
Prescriptive Analytics liefert Vorschläge basierend auf Predictive Analytics. Diese Methode setzt auf Predictive Analytics auf und geht noch einen Schritt weiter. Sie liefert zusätzlich auch Erklärungen, warum ein zukünftiges Ereignis eintreten wird und gibt Empfehlungen, wie man auf ein solches Ereignis reagieren sollte. Im Falle des Kredit-Scorings bekäme man also zusätzlich noch Information, warum der Kunde nicht zahlen können wird, und welches die beste Entscheidung sei, den Kredit zu vergeben oder nicht. Prescriptive Analytics versucht also die Auswirkung zukünftiger Entscheidungen abzuschätzen, um so Entscheidungen zu bewerten, bevor sie getroffen werden.