Eine Zunahme an Regularien, wachsende Kosten, ständig wechselnde und immer individuellere Kundenerwartungen und ein steigender Wettbewerb sind nur einige der Herausforderungen, mit denen die Industrie zu kämpfen hat. Gerade sie bekommt die Auswirkungen der Globalisierung besonders stark zu spüren und muss unter diesem massiven Druck ständig Produktivität und Effizienz steigern.
Die komplexe Firmenstruktur erschwert Entscheidungsfindung
Zentrales Problem in der internationalen Fertigung ist die in der Regel sehr fragmentierte Firmenstruktur mit zahlreichen Niederlassungen und einer großen Anzahl an Zulieferern sowie Abnehmern in verschiedenen Ländern der Erde. Komplizierte Waren-, Daten- und Finanzströme, disparate und heterogene IT-Landschaften tragen ihren Teil zur Komplexität bei. Wie soll das Management hier qualifizierte Entscheidungen treffen können, wenn es ihm unmöglich ist, sich überhaupt ein Gesamtbild zu machen? Höchste Zeit also, funktionsfähige Windmühlen aufzustellen und sie erfolgreich zu betreiben.
- Sieben Geschäftsmodelle für Big Data
Die von BCG identifizierten sieben Haupterfolgsmodelle beinhalten eine Mischung aus B2C- und B2B-Angeboten. - 1. Build to Order:
Produkte und Services werden für Kunden maßgeschneidert - zum Beispiel, indem aus Location-Daten verschiedener GPS-Geräte eine individualisierte Verkehrsanalyse für ein städtische Planungsabteilung entwickelt wird. Vorteile dieses Modells seien der besondere Wert der Leistungen und die gesteigerte Kundenzufriedenheit. Dafür müssen die Kunden aber längere Wartezeiten in Kauf nehmen; überdies lassen sich die speziellen Produkte und Leistungen nur schwer weiterverkaufen. - 2. Service Bundle:
Verschiedene Angebote werden miteinander verschmolzen. Energiehändler können beispielsweise die Gas- und Stromversorgung und die Energiesparberatung zu einem Service-Paket schnüren. Das kann laut BCG sehr profitabel sein, Konkurrenz aus dem Markt treiben und Cross-Selling-Möglichkeiten eröffnen. Hinterher ist es aber schwierig, die Verkaufspakete wieder aufzulösen. Und den Kunden muss nicht schmecken, dass sie den Wert der einzelnen Komponenten nicht mehr mühelos in Erfahrung bringen können. - 3. Plug and Play:
Hier gibt es das immer gleiche Produkt für alle Kunden. Banken können beispielsweise Berichte über das Ausgabenverhalten ihrer Kunden verkaufen, die auf Basis gesammelter und anonymisierter Daten erstellt werden. Derartige Angebote lassen sich leicht zusammenstellen. Die Gefahr: Die Kunden könnte Personalisierung vermissen - und eventuell zur Konkurrenz flüchten. - 4. Pay per Use:
Bezahlt wird nur, was auch gebraucht wird. BCG nennt als Beispiel ortsabhängige Skisportversicherungen. So lassen sich gute Margen realisieren; allerdings fehlen stabile Umsatzquellen - und die Akquisitionskosten können ausufern. - 5. Commission:
Dauerhaftere Beziehungen lassen sich auf andere Weise etablieren. Zum Beispiel, indem Banken Kreditkartentransaktionen analysieren und Lokalen und Geschäften gegen Gebühr Rabatte gewähren. Diese basieren dann auf den generierten Umsätzen. Das Problem laut BCG ist hier die mangelnde Berechenbarkeit der Geldflüsse. - 6. Value Exchange:
In diesem Modell bietet ein Dritter, der zwischen Unternehmen und Kunde steht, Rabatte oder zusätzliche Services an. So lassen sich die vom Marketing gewünschten Gruppen gezielt ins Visier nehmen. Langfristig kann es auch BCG-Sicht aber unerwünscht sein, bei diesen Geschäften einen weiteren Partner im Boot zu haben. - 7. Subscription:
Abonnementlösungen sind laut BCG zum Beispiel im Healthcare-Segment möglich. So kann Patienten ein anonymisierter Informationsdienst angeboten werden, über den medizinische Befunde ausgewertet werden. Diese Geschäfte sind einerseits von stabilen und damit berechenbaren Umsätzen gekennzeichnet, dafür sind andererseits die Margen entsprechend niedrig.
Die Energie dafür liefern große Datenmengen, das Rohmaterial unserer Zeit: Qualitativ vielfältige, unterschiedlich strukturierte Informationen, die einem schnellen Wandel unterliegen, da immer neue Datenquellen hinzukommen. Big Data Cycle nennt sich der Vorgang von der Erfassung und Speicherung über die Organisation bis hin zu Analyse und Visualisierung dieser Datenflut. Der hohe Aufwand, der damit für die Unternehmen verbunden ist, zahlt sich nach Expertenmeinung aus. Denn wer mit den Datenbergen richtig umgeht, kann durch die (neu) gewonnene Transparenz stark profitieren. Entweder die in Echtzeit analysierten Daten dienen als Grundlage für Management-Entscheidungen oder es werden sogar automatisierte Entscheidungsprozesse hinterlegt. Beides minimiert Geschäftsrisiken dramatisch.
Mit Big Data Fertigungsprozesse optimieren
Im Bereich Fertigungstechnik können produzierende Unternehmen ihre Fertigungsprozesse mit Big Data sehr gut optimieren, denn im laufenden Betrieb lassen sich Produkte mit Big Data Informationen zuverlässig überwachen. Dafür erfassen beispielsweise Sensoren an Produkten und entlang von Produktions- und Lieferketten die Daten, die von Big-Data-Technologien dann ausgewertet werden. Aus den Ergebnissen können intelligente Diagnosen mit Trendanalysen erstellt werden, die präventiv wirken können. Dazu werden aktuelle Produkt- und Sensorinformationen mit Informationen aus dem Service oder früheren Fehlern korreliert und ausgewertet. Gerade auch beim Thema Inventar-Management und bei der Produktionsplanung sind diese Zahlen von unschätzbarem Wert.
Datenpotenziale in der Lieferkette
Die Lieferkette ist ein weiteres gutes Beispiel aus der Fertigungsindustrie. Hier ist eine Vielzahl an Parteien involviert, die alle ihren Mehrwert zum Produkt beisteuern. Während des ganzen Prozesses wird so eine große Menge an Daten von disparaten Quellen erzeugt. Die ineinandergreifenden Elemente der Wertschöpfungskette brauchen deshalb unbedingte Transparenz, um Produkte in der richtigen Qualität und zum angemessenen Preis zu liefern - innerhalb eines Rahmens sich stetig ändernder Gesetze und Regularien. Nicht überraschend, profitieren laut dem Branchenverband Bitkom unter anderem die Bereiche Distribution und Logistik sowie Finanz- und Risiko-Controlling besonders von Big Data. Damit sich aus den vielen Daten auch die wirklich relevanten Informationen filtern lassen, bedarf es einer mächtigen und doch einfach anzuwendenden Analyseplattform, auf die von überall zugegriffen werden kann. Und zwar schnell und von allen Anwendern im Unternehmen, die diese Daten für ihre tägliche Arbeit benötigen - nicht nur von wenigen IT-Experten. Eine intuitive Vorgehensweise und eine grafisch ansprechende Visualisierung helfen bei der Datenaufbereitung, die die Basis für wichtige unternehmerische Entscheidungen bereitet.
So ausgestattet, können Unternehmen dann auch die Flügel ihrer Windmühlen zum Drehen bringen.
- Predictive Analytics
das Treffen von Prognosen durch die Analyse von Daten. Im Gegensatz zur Analyse historischer Zusammenhängen und Erkenntnissen; auch durch die Analyse von Daten, die möglicherweise urächlich nicht miteinander in Zusammenhang stehen (Quelle: Bitkom) - Open Source
quelloffene Werke, zum Beispiel Software bei der man den Quellcode erhält (Quelle: Bitkom) - Open Data
Konzept zum Zugang zu hoheitlichen Daten zu jedermann, beispielsweise Auskunft über die bei einer Meldestelle gespeicherten Daten über einen Bürger und die Einrichtungen, an die die Daten übermittelt worden sind. (Quelle: Bitkom) - Metadaten
Daten zur Beschreibung von Daten, unter anderem, um Datenmodelle zu entwickeln. (Quelle: Bitkom) - Mahout
wörtlich: Elefantentreiber; hier: eine Apache-Komponente zum Aufbau von Bibliotheken für das Machine Learning MapReduce Verfahren zur Datenverwaltung und Indizierung (Quelle: Bitkom) - Machine Learning
Oberbegriff für die künstliche Generierung von Wissen aus Erfahrung: Ein künstliches System lernt aus Beispielen und kann nach Beendigung der Lernphase verallgemeinern. Das System „erkennt“ Gesetzmäßigkeiten und kann somit auch unbekannte Daten beurteilen. (siehe Wikipedia). (Quelle: Bitkom) - Lustre
Linux-basierendes Betriebssystem für den Betrieb von Cluster-Architekturen (Quelle: Bitkom) - Lambda-Architektur
Eine konstruktiv nutzbare Vorlage für den Entwurf einer Big-Data-Anwendung. Die in der Architektur vorgesehene Modularisierung spiegelt typische Anforderungen an Big-Data-Anwendungen wider und systematisiert sie. (Quelle: Bitkom) - In-Memory
Bei In-Memory werden die Daten nicht physisch auf Datenträger gespeichert und wieder ausgelesen, sondern im Arbeitsspeicher gehalten und dadurch mit sehr hoher Geschwindigkeit verarbeitet. (Quelle: Bitkom) - HANA
Ursprünglich: High-Performance Analytical Appliance; ein von SAP entwickeltes Produkt zum Betrieb von Datenbanken im (sehr großen) Hauptspeicher eines Computersystems (Quelle: Bitkom) - Hadoop
Open-Source-Version des MapReduce-Verfahrens, in verschiedenen Distributionen erhältlich. (Quelle: Bitkom) - Fraud Detection
Erkennung von Betrugsversuchen durch die Analyse von Transaktionen und Verhaltensmustern (Quelle: Bitkom) - Eventual Consistency
Eine Schnittmenge des CAP-Modells hinsichtlich der ereignisbezogenen Konsistenz von Modellen. (Quelle: Bitkom) - Data Science
Datenkunde: die Kenntnis bzw. Anwendung neuer Verfahren zur Arbeit mit Daten und Informationen, z.B. Verwendung semantischer Verfahren oder die Erschließung neuer Datenquellen (Sensordaten) und die Erarbeitung von Mustern oder statistischen Verfahren zur Auswertung solcher Daten. (Quelle: Bitkom) - Data Mining
Anwendung statistischer Methoden auf sehr große Datenmengen, bspw. Im Gegensatz zur manuellen Auswertung über Funktionen eines Tabellenkalkulationsprogrammes (Quelle: Bitkom) - Data Management
Methoden und Verfahren zur Verwaltung von Daten, oft über Metadaten (Daten, die Daten beschreiben) (Quelle: Bitkom) - Customer Analytics
Gewinnung von Erkenntnissen über das Kundenverhalten (überwiegend in Consumer-orientierten Unternehmen), beispielsweise mit dem Ziel der Entwicklung massenindividualisierter Produkte und Dienstleistungen (Quelle: Bitkom) - CEP
Sammelbegriff für Methoden, Techniken und Werkzeuge, um Ereignisse zu verarbeiten, während sie passieren. CEP leitet aus Ereignissen höheres Wissen in Form von komplexen Ereignissen ab, d. h. Situationen, die sich nur als Kombination mehrerer Ereignisse erkennen lassen (vgl. Wikipedia). (Quelle: Bitkom) - Complex Event Processing (CEP)
Complex Event Processing (CEP, Verarbeitung komplexer Ereignisse) ist ein Themenbereich der Informatik, der sich mit der Erkennung, Analyse, Gruppierung und Verarbeitung voneinander abhängiger Ereignisse beschäftigt. (Quelle: Bitkom) - CEPH
ein Dateisystem, das gleichzeitig Objekte, Dateien und Datenblöcke verwalten kann (Quelle: Bitkom) - CAP-Theorem
Laut dem CAP-Theorem kann ein verteiltes System zwei der folgenden Eigenschaften erfüllen, jedoch nicht alle drei: C = Consistency = Konsistenz, A = Availability = Verfügbarkeit, P = Partition Tolerance = Partitionstoleranz (siehe Wikipedia) - Business Intelligence
Gewinnung von Erkenntnissen über Zusammenhänge zwischen Informationen aus polystrukturierten Daten aus unterschiedlichsten Quellen (Quelle: Bitkom) - Broker
Makler/Buchmacher, hier: Rolle des Übermittlers von Daten zwischen Quelle und Anwender Business Analytics Ermittlung von Kennzahlen für Unternehmen, durch die Analyse größerer Datenmengen mit dem Ergebnis neuer Erkenntnisse aufgrund einer breiteren Datenbasis. (Quelle: Bitkom) - Big Data
die Gewinnung neuer Informationen – die in kürzester Zeit sehr vielen Nutzern zur Verfügung stehen müssen – mittels enorm großer Datenbestände aus unterschiedlichsten Quellen, um dadurch schneller wettbewerbskritische Entscheidungen treffen zu können. (Quelle: Bitkom) - Analytics Appliance
vorkonfigurierte oder paketierte Lösungen aus Hardware und Software für die Koordinierung von polystrukturierten Daten, die Ausführung von Analysen und die Präsentation der Erkenntnisse. (Quelle: Bitkom) - Analytics Analyse
Gewinnung von Erkenntnissen durch komplexe Abfragen auf polsystrukturierte Daten, Datenbanken und Data-Warehouses mit spezifischen Abfragesprachen wie SQL oder Pig. (Quelle: Bitkom)