Crossmediale Analysen, wie Werbung wirkt und beim Kunden ankommt, werden für viele Unternehmen immer wichtiger. Schließlich gilt es, die Marketing-Budgets möglichst effizient einzusetzen. Welche Tools sich am besten eignen, um Offline- mit Online-Werbedaten zu verknüpfen und Prognosen zur Reichweite, Akzeptanz und Werbewirkung zu erstellen, zeigt im Folgenden die aktuelle DataMining-Studie 2013 des BI-Analysten- und Beraterhauses Mayato.
Mit Hochdruck am Wissen arbeiten
Viele Unternehmen arbeiten mit Hochdruck daran, den zentralen Produktionsfaktor Wissen durch die Analyse von Daten jedweder Couleur weiter auszubauen - nicht erst, seit Schlagworte wie Big Data durch die Branche geistern. Die Einsatzgebiete besonders von explorativen Analyseansätzen wie Data Mining werden dabei branchenübergreifend in großen Schritten erweitert. Das gilt beispielsweise für Betrugserkennung bei Banken und Versicherungen, Kundenwertmodellierung, Kundensegmentierung und Kampagnen-Management-Steuerung im Handel oder Sensordatenanalyse und Fertigungsoptimierung im Automobilsektor.
Auch im Marketing, dem klassischen Anwendungsbereich für Data-Mining-Analysen, lassen sich immer neue Nutzungsmöglichkeiten erschließen. Viele Unternehmen stellen sich zum Beispiel angesichts der wachsenden Bedeutung von Online-Werbekanälen die Frage: Welchen Einfluss haben welche Werbemaßnahmen auf welchen Kanälen auf typische Zielgrößen wie Umsatz, Deckungsbeitrag oder Gewinn? Wie sollte dabei das Gesamt-Werbebudget auf die zahlreichen möglichen Werbemedien verteilt werden?
Wer die richtigen Antworten auf diese Fragen findet, ist im Vorteil. Die Optimierung dieser Aufteilung bietet den Unternehmen Potenzial, die eigenen Werbebudgets effizient einzusetzen: Allein in Deutschland werden jährlich vier Milliarden Euro nur für TV-Werbung ausgegeben.
- Erfahrungen beim Einsatz von Big-Data-Techniken
Es ist nicht so, dass noch niemand Big-Data-Projekte angegangen wäre. Es gibt sogar einige Beispiele von Unternehmen, die solche Projekte mit Erfolg absolviert haben. - Deutsche Welle
„Essenziell auch für Big-Data-Projekte sind eine klare Aufgabenstellung, Fokus auf die Lösung und die Nutzer dieser Lösung (weniger auf neueste Informationstechnik) und nicht zuletzt auch ein Gespür für Usability und Funktionsumfang eines Reporting-/Analyse-Dashboards. Weniger ist hier meistens mehr.“ - DeutschlandCard GmbH
„Nur ein minutiöser Migrationsplan mit mindestens einer kompletten Generalprobe inklusive Fallback-Test sichert die Betriebssicherheit einer solch komplexen Applikation mit ihren zahlreichen Schnittstellen zu externen Partnern.“ - Schukat Electronic
„Big Data Analytics ist nicht nur eine Herausforderung für Großunternehmen. Auch der Mittelstand muss sich immer mehr mit diesem Thema beschäftigen, um im internationalen Wettbewerb erfolgreich zu sein. Das Anwendungsbeispiel verdeutlicht den Nutzen im Vertrieb. Aber beispielsweise auch in der Produktion mit Sensordaten etc. gibt es vielfältige Szenarien in den Fachabteilungen.“ - Otto Versand
„Wir haben erkannt, dass für unsere Anforderungen ein selbstlernendes System notwendig ist, das sich stetig ändernde Einflussfaktoren wie Ansprache und Artikel- Ranking oder im Printbereich Seitenanteil und Katalogausstoßmenge berücksichtigt. Damit steigt unsere Prognosequalität kontinuierlich, und die prognostizierten Absatzmengen werden immer präziser. Außerdem können wir uns frühzeitig auf künftige Entwicklungen einstellen.“ - Macy‘s
„Der Business-Nutzen zeigt sich erst, wenn Prozesse, die aufgrund fehlender Möglichkeiten bewusst eingeschränkt waren, verbessert werden. In diesem Fall ist es die früher gar nicht mögliche, sehr viel häufigere Preisoptimierung im Gesamtsortiment. Auch können nun sehr viel aktuellere Abverkaufszahlen mit in die Analyse einbezogen werden.“ - Telecom Italia
„Bestehende Segmentierungsmodelle können um rollenbasierte Modelle erweitert werden, indem der Einfluss auf das soziale Umfeld durch Leader, Follower etc. verdeutlicht wird. Leader gelten als Kommunikations-Hubs und haben einen starken Entscheidungseinfluss auf ihr Umfeld. Marketing- Strategien und Ansätze zur Kundenakquise können durch SNA optimiert werden. Eigenschaften der Communities, Wechsel zwischen den Communities und die Identifikation von Teilnehmern in Schnittstellenbereichen ermöglichen Rückschlüsse auf neue Kundensegmente und Zielgruppen.“ - Netapp
„Das auf Apache Hadoop basierende System arbeitet sicher, zuverlässig und höchst performant. Die Java-basierende Plattform verwendet offene Technologien und ist somit flexibel erweiterbar. Kunden vermeiden so bei niedrigen Betriebskosten (TCO) ein Vendor-Lock-in.“ - Semikron GmbH
„Big-Data-Projekte sind komplex. Oft sind Unternehmen nicht in der Lage, ihre tatsächlichen Datenbestände für die geplanten Projektvorhaben hinsichtlich ihrer Volumenentwicklung abzuschätzen. Bei Semikron hat sich beispielsweise gezeigt, dass sie von einem viel größeren Datenvolumen ausgegangen sind, als es tatsächlich der Fall war. Bei dem durchgeführten Proof of Concept stellte sich heraus, dass zwar die Vielzahl an Daten, die in den typischen Produktionsprozessen anfallen, sehr hoch ist, nicht aber das Datenvolumen.“ - Vaillant Group
„Allein die Umstellung der Systemlandschaft auf innovative Big-Data-Architekturen aus technischer IT-Perspektive ergibt belastbare Business Cases zur Reduzierung des TCO. Noch deutlich übertroffen werden für Fachabteilungen die Resultate aus dem Mehrwert der neuen Lösungen und Möglichkeiten in Verbindung mit der drastischen Reduzierung der Bearbeitungszeiten durch die Anwender.“ - TomTom
„Um die kompletten Anforderungen des Kunden in Big- Data-Projekten erfüllen zu können, ist übergreifendes Know-how erforderlich, das die Konfiguration von Hard- und Software, das Tuning und technisches Consulting umfasst.“ - United Overseas Bank (Singapur)
„Entscheidend ist das Denken in Geschäftsprozessen. Wird nur ein Teil beschleunigt, der Gesamtprozess bleibt aber unangetastet, so lässt sich der Vorteil nicht realisieren. Sowohl das Daten-Management im Vorfeld als auch die Echtzeit-Nutzung der Echtzeit-Ergebnisse sind bestimmende Faktoren für den erfolgreichen Einsatz dieser neuen Lösung.“ - Xing
„In kürzester Zeit stellten sich positive Effekte bei Xing ein, vor allem eine deutliche Verbesserung bei den Analysen. Prozesse können durch die neue Lösung schneller entwickelt und Ad-hoc Anfragen zügiger beantwortet werden. Es sind keine langen Workarounds mehr notwendig, alle BI-Mitarbeiter nutzen das neue System effektiv. Die Komplexität und die Wartung des Systems wurden merklich verringert. Bei der Arbeit mit der neuen Lösung konnte eine steile Lernkurve seitens der Anwender verzeichnet werden, auch wird spürbar produktiver gearbeitet.“ - In eigener Sache:
Mit diesen Anwenderzitaten wollen wir Ihnen Lust machen auf das nächste Heft in unserer vierteiligen Quadriga-Reihe. Titelthema ist Big Data. Anwenderbeispiele, visionäre Konzepte und Meinungen runden das Thema ab. Auch auf die Megatrends Mobility, Cloud Computing und Social Media werden wir wieder eingehen. Erscheinungstermin: 10. Juni 2013.
Über 150 Analyse-Tools sind auf dem Markt
Die Tool-Hersteller reagieren auf die steigenden Anforderungen ihrer Kunden mit einer zunehmenden Spezialisierung: Gegenwärtig sind über 150 Datenanalysewerkzeuge auf dem Markt verfügbar. Darüber hinaus erfordern die deutlich komplexer werdenden analytischen Fragestellungen eine höhere Funktionalität, besonders bei der Datenvorverarbeitung und der Interpretation der Ergebnisse.
Die klassischen Data-Mining-Suiten zum Beispiel von SAS, IBM SPSS, Statsoft oder Angoss zeichnen sich vor allem durch eine umfassende Funktionalität aus, so dass sie den gesamten Analyseprozess abdecken können. Solche Suiten werden - mit einem vergleichbar mächtigen Funktionsumfang - seit einigen Jahren auch von Open-Source-Anbietern wie Rapid-I (RapidMiner), der KNIME.com AG (KNIME) oder den Universitäten Waikato (WEKA) oder Ljubljana (Orange) bereitgestellt.
Neben diesen "Komplettprodukten" gibt es die schlankeren Data-Mining-Werkzeuge mit reduzierter Funktionalität, wie sie etwa Viscovery (SOMine), Prudsys (RDE), 11Ants Analytics oder Bissantz (DeltaMaster) anbieten. Diese Tools setzen jedoch bereits weitgehend bereinigte Daten voraus, da etwa wichtige statistische Verfahren und Möglichkeiten zur Datenvorverarbeitung oft nicht implementiert sind.
Auch die Anbieter von Business-Intelligence-(BI-)Umgebungen haben mittlerweile erkannt, dass viele Nutzer ihre bereits konsolidiert in einer Datenbank vorliegenden Daten gerne direkt dort mit DataMining-Verfahren analysieren möchten - ohne den sonst üblichen, aber umständlichen Umweg über den Ex- und Import der Daten per .csv-Datei an ein separates Tool gehen zu müssen: So bieten zum Beispiel SAP (Data Mining Workbench), Oracle (Data Miner), Microsoft (SQL Server Analysis Services) oder Microstrategy (Data Mining Services) auch Data-Mining-Funktionen an.