Die Lage ist ziemlich eindeutig: Unternehmen weltweit verfügen nicht über die notwendigen Fähigkeiten, einen wirtschaftlichen Nutzen aus der Analyse von immer größeren Big-Data-Bergen zu ziehen. Gerade einmal ein Drittel aller Firmen kann neue Daten tatsächlich nutzen, um Geschäftsentscheidungen zu treffen und Wettbewerbsvorteile zu erzielen, so eine Studie im Auftrag von EMC. Vor allem fehlt es an Experten zur Datenanalyse.
Was müssen nun diese Experten mitbringen, und welche spezifischen Anforderungen haben Arbeitgeber an solche Spezialisten für Datenberge? Alle von der CW befragten Experten waren sich in einer Sache einig: Dass ein Spezialist für Big Data auch ein Spezialist für Business Intelligence (BI) sein muss. "Der Fokus eines Big-Data-Experten der Zukunft liegt auf dem Management von großen Datenmengen und der Wertschöpfung daraus", stellt beispielsweise Hans-Peter Kemptner fest, IBM-Chefarchitekt und Lehrbeauftragter Storage- und Archivsysteme an der FH Oberösterreich in Wels.
"Wer im Big-Data-Umfeld arbeiten möchte, muss - egal ob in der Entwicklung oder im Pre-Sales- Bereich - analytischen Verstand und den Blick für Zahlen und Zusammenhänge mitbringen", so Steffen Weissbarth, CEO des Data-Mining-Experten Exasol. "Im Bereich Big Data werden große Speicher- und Rechencluster betrieben, so dass auf breites und fundiertes Infrastruktur- und Betriebssystem Know-how nicht verzichtet werden kann", ergänzt Fritz Schinkel, Director Solutions & Innovations bei Fujitsu Technology Solutions. Wichtige Voraussetzung dafür sei abstraktes und analytisches Denken, das in einem Studium wie etwa Mathematik, Physik oder Informatik geschult werde. Kenntnisse in statistischen Methoden seien ebenfalls von Vorteil. Aber nicht alles könne einem angehenden Big-Data-Analysten beigebracht werden, Phantasie und Offenheit sollten bereits vorhanden sein, so Schinkel.
Unis nicht auf Big Data vorbereitet
Die Studie "The State of Business Intelligence in Academia 2010" des Teradata University Network und der Special Interest Group on Decision Support, Knowledge and Data Management Systems (SIGDSS), zeigt, dass es den meisten Universitäten nicht gelingt, entsprechend qualifizierten Absolventen hervorzubringen. Zu häufig haben diese entweder ein tiefgreifendes technisches Wissen über Business Intelligence, verstehen aber nicht, wie sich diese Fähigkeiten für geschäftliche Anforderungen nutzen lassen. Oder sie haben fundierte betriebswirtschaftliche Kenntnisse, die sie nicht mit einschlägigen BI-Tools anwenden können.
"Drei Mega-Trends haben zu einem Mangel von Big-Data-Experten geführt: dass in vielen Branchen exponentiell wachsende Datenvolumen, die Zunahme neuer Anwendungen und neuer Datenquellen sowie die Konzentration auf betriebswirtschaftlichen Optimierung", so Hermann Wimmer, President Europe, Middle East and Africa (EMEA) beim Spezialisten für Enterprise Data Warehousing Teradata.
Laut dem Bericht "Big Data: The next frontier for innovation, competition and productivity" des McKinsey Global Institute vom Mai vergangenen Jahres wird bis 2018 allein der Bedarf in den USA nach diesen gut ausgebildeten BI-Experten die verfügbaren Arbeitskräfte um 60 Prozent übersteigen. Er sagt zudem voraus, dass allein in den USA bis 2018 zusätzlich 190.000 hochgradig spezialisierte Analysten und weitere 1,5 Millionen Manager mit einem Verständnis für Datenanalysen benötigt werden, um die Potenziale von Big Data auszuschöpfen.
Der McKinsey-Report liefert noch weitere Erkenntnisse. Am stärksten sind Unternehmen daher an Studenten interessiert, die
-
praktische Erfahrung in BI haben (75 Prozent);
-
über Erfahrungen mit neuen Trends verfügen (66 Prozent) und
-
bereits mit großen Datenmengen gearbeitet haben (54 Prozent).
Unternehmen stellen am häufigsten Nachwuchsarbeitskräfte ein, die vor allem einen Abschluss in betrieblicher Informationstechnik (51 Prozent), Informatik (41 Prozent), Mathematik oder Statistik (34 Prozent) vorweisen können.
- Die vier Herausforderungen von Big Data
Das Thema Big Data befasst sich eigentlich mit vier Herausforderungen: - Die schiere Menge:
Das für Unternehmen relevante Datenvolumen steigt weiter drastisch an. Heute schon werden Datenmengen im Terabyte-Bereich analysiert, in Kürze dürften Petabyte und Exabyte auf der Agenda stehen. - Der Zeitdruck:
Analysen der gewaltigen Datenberge sollten idealerweise in Echtzeit zur Verfügung stehen. Denn die Unternehmen stehen vor der Aufgabe, dass sie zeitnah auf Marktänderungen reagieren müssen. - Die mangelnde Struktur:
Die Analysen müssen immer häufig Datenquellen mit kaum strukturierten Beständen berücksichtigen. Das heißt: die Komplexität der Datenanalysen steigt. Neben den bekannten Datenquellen, etwa den vorhandenen ERP-Systemen, kommen neue hinzu. Dazu zählen Daten aus M-to-M-Applikationen, also beispielsweise Sensordaten, Daten aus On-Board-Systemen, RFID-Daten aus der Logistikkette, aber auch Daten aus Weblogs und Social-Media-Plattformen etc. - Die wachsende Anwenderzahl:
Die potenziellen internen und externen User werden immer mehr. Sie kommen beispielsweise über Self-Service-Portale, die im Web zugänglich sind.