Viele Firmen beschäftigt derzeit die Frage, wie sie auf die stetig wachsenden Datenmengen und die immer komplexer werdenden Daten in ihren Unternehmen angemessen reagieren können. Schließlich geht es im Zuge von Big Data vor allem darum, aus diesen Daten einen Nutzen für das eigene Business zu ziehen. Das funktioniert allerdings nur, wenn es gelingt, die richtigen Informationen aus Big Data zu gewinnen, um auf dieser Basis die richtigen Entscheidungen zu treffen.
Big Data entwickelt sich damit also zunehmend zu einer zentralen Herausforderung in Sachen Analytics. Um dieser Herausforderung Herr zu werden, müssen die Unternehmen ihre Systeme entsprechend auf Big Data vorbereiten und ausrichten.
Umstellung nicht unterschätzen
Die Umstellung auf ein Big-Data-System ist in der Praxis jedoch nicht zu unterschätzen, da sich die Big-Data-Infrastruktur grundsätzlich von der Infrastruktur eines konventionellen IT-Systems unterscheidet.Während beispielsweise bei herkömmlichen Systemen großer Wert auf die Ausfallsicherheit einzelner Bauelemente gelegt wird, sorgt bei Big Data das gesamte System dafür, dass ausgefallene Knoten automatisch kompensiert werden.
- Trendthema Big Data
Von der Auswertung der riesigen Datenmengen, die täglich von IT-Systemen erfasst werden, versprechen sich Unternehmen, aber auch öffentliche Einrichtungen große Vorteile. - Vorteile von Big Data
Laut der Untersuchung von Barc erwarten sich Unternehmen von Big Data vor allem Vorteile auf strategischer Ebene. Doch das setzt voraus, dass Fachleute aus unterschiedlichen Bereichen Hand in Hand arbeiten: Business Manager, IT-Fachleute und Experten für das Sammeln und Auswerten von großen Datenbeständen. - Benno Zollner, Chief Information Officer von Fujitsu Technology Solutions
" Big Data Lösungen kombinieren Informationen aus unterschiedlichen Quellen und einer Vielzahl von Technologien. Deshalb müssen Big-Data-Fachleute interdisziplinäre Erfahrungen mitbringen." - Big Data: Wer analysiert?
Die Analyse der Daten, die im Rahmen von Big-Data-Projekten erfasst werden, erfolgt laut einer Studie von TCS vornehmlich durch die Fachabteilungen, die diese Informationen verwenden. Die IT-Abteilung spielt eine untergeordnete Rolle. - Kay Müller-Jones, Head of Global Consulting Practice bei Tata Consultancy Services:
"Neben technischen Fertigkeiten und fachlichem Wissen sollten Big-Data-Fachleute über ein hohes Maß an Fingerspitzengefühl im Umgang mit Kollegen verfügen. Denn gerade Big Data erfordert ein fachbereichsübergreifendes Denken, das Informationen aus vormals klar abgegrenzten Bereichen zusammenführt." - Big Data, die Probleme
Laut einer Studie des Marktforschungsinstituts Barc zählt fehlendes Fachwissen zu den größten Hemmnissen, mit denen sich europäische Unternehmen bei Big-Data-Projekten konfrontiert sehen. - Big Data: Wer ist zuständig?
Die Verarbeitung, das "Processing", von Big Data ist Aufgabe von IT-Fachleuten. Das können hauseigene Mitarbeiter sein, aber auch externe Spezialisten. - Analytische Infrastruktur für Big Data
Dies funktioniert dadurch, dass unerledigte Tasks auf frei verfügbare Knoten im System aufgeteilt werden. Diese Herangehensweise ermöglicht den Einsatz handelsüblicher Standardsysteme und macht die ausfallsichere Spezialhardware überflüssig, was sich durchaus auch in den Anschaffungskosten widerspiegelt, da diese Elemente bei Big Data nicht mehr redundant ausgelegt werden müssen. Allerdings haben die Unternehmen im Vorfeld zu prüfen, inwieweit sich handelsübliche Hardware in dem zur Verfügung stehenden Rechenzentrum betreiben lässt.
Bandbreite im Netz muss passen
Weitere Anforderungen stellt Big Data an die Netzwerkinfrastruktur, denn die Netzwerkkomponenten müssen nicht nur ausfallsicher sein, sondern auch hohe Bandbreiten zur Verfügung stellen. Da die Daten während der Verarbeitung mehrfach über das Netzwerk hin- und hergeschickt werden, ist insbesondere eine hohe Bandbreite zwischen den einzelnen Zonen, den Racks, von großer Bedeutung. Die Knoten innerhalb eines Rack tauschen in der Regel noch mehr Daten untereinander aus, so dass hier eine höhere Bandbreite für alle beteiligten Knoten zur Verfügung stehen muss.
Auch in der Ablage der Daten unterscheidet sich ein Big-Data-System stark von üblichen Infrastrukturen: Mit Big Data werden die Daten ohne Bezüge untereinander in einer semistrukturierten Form im System abgelegt. Im Falle von unstrukturierten Quelldaten macht das keinen Unterschied, bei Quelldaten aus relationalen Datenbanken ist dieser Punkt insofern wichtig, als die Struktur für die Ablage aufgelöst werden muss. Sollte eine nachgelagerte Auswertung der Daten mit Zusatzinformationen gefordert sein, so sind dafür Struktur und Bezug wiederherzustellen.
Nicht für Big Data ausgelegt
In vielen Unternehmen sind Beschaffung, Inbetriebnahme und Betrieb von IT-Komponenten nicht zwingend auf die Besonderheiten von Big Data ausgelegt. Der Aufbau einer solch innovativen Infrastruktur benötigt nicht nur Know-how bei der Inbetriebnahme und im Betrieb, sondern auch bei den Anwendern dieses Systems. Dabei ist nicht nur das technische Know-how für die Anwendung von Bedeutung, sondern auch die Kenntnis darüber, wie man aus den neuen Möglichkeiten und Daten Informationen und anschließend Wissen schafft.
- Was ist Big Data?
Nur 14 Prozent der Bundesbürger wissen, was mit dem Schlagwort „Big Data! gemeint ist, so hat der Bitkom herausgefunden. Experton-Advisor Carlo Velten fasst das Phänomen in fünf Thesen zusammen. - Big Data ist mehr ...
... als IT. - Eigentums- und Verwertungsrechte ...
... über Datenbestände werden zum entscheidenen Wettbewerbs- und Innovationsfaktor. - Der Markt steckt noch ...
... in den Kinderschuhen. Bis sich klar definierte Marktkategorien herausbilden, wird Jahre dauern. - In den kommenden zwei bis drei Jahren ...
... werden die Infrastrukturanbieter, die Analytics-Spezialisten und die Berater das große Geschäft machen. - Erfolg oder Misserfolg ...
... hängen nicht nur von rechtlichen Rahmenbedingungen und öffent¬lichen Investitionen, sondern auch vom vertrauensbildenden Umgang mit den Kundendaten ab.
Alles in allem stellt Big Data oft eine große Herausforderung dar und ist mit vielen Fragen verknüpft: Ist der Schritt zu Big Data bei großen Datenmengen wirklich immer automatisch der richtige Weg? Ab wann braucht man zwingend ein Big-Data-System? Wo liegen die Grenzen zwischen Big Data und herkömmlichen IT-Systemen? Wie definiert sich Big Data? "Aus IT-Perspektive markiert Big Data die aufkommenden Herausforderungen sowie die neuen technologischen Möglichkeiten für Speicherung, Analyse und Processing schnell wachsender Datenmengen", sagen die Experten des Branchenverbands Bitkom und verweisen auf die vier zentralen Begriffe Datenmenge (Volume), Datenvielfalt (Variety), Geschwindigkeit (Velocity) und Analytics, die Big Data ausmachen.
Auch die Analysten von Gartner verwenden die drei Vs (Volume, Variety, Velocity) in ihrer Definition: Big Data sind viele, in verschiedener Form und hoher Geschwindigkeit anfallende Daten, die eine effiziente und innovative Form der Verarbeitung erfordern, um bessere Einsichten zu erhalten und Entscheidungen zu unterstützen.
Damit umreißen die Definitionen zwar, worum es bei Big Data geht. Konkrete Anhaltspunkte, wie eine dafür ausgelegte Infrastruktur dimensioniert sein sollte, bleiben sie indes schuldig. Die Grenze, bis wann ein herkömmliches System ausreichend ist und ab wann nur ein Big-Data-System eine stabile Lösung schafft, ist wohl fließend. Vielfach lassen sich erhöhte Anforderungen aber noch mit herkömmlichen Maßnahmen lösen, und erst ein darüber hinausgehender, anspruchsvollerer Teil benötigt neue, alternative Herangehensweisen.