Die tektonische Verschiebung in der IT, verursacht durch Cloud Computing, zeigt den zukünftigen Weg an disruptiven Zeiten zwischen Systemen und Infrastruktur-Software-Anbietern für einige Jahre auf. Big Data hat sich zu einem beherrschenden Thema in der IT entwickelt und betrifft Anbieter und IT-Anwender gleichermaßen. Wie bei der Cloud entsteht eine breite Schneise der Veränderungen aus Wettbewerbs-Gründen sowie dem Streben nach Agilität bei Infrastruktur, Prozessen und Personal.
Big Data-Konzepte und erweiterte Analysen kamen in den letzten Jahren zügig voran und wurden zum wichtigen Bestandteil einer neuen Art des Business. Zwar ist das Konzept nicht ganz eindeutig, doch Big Data wird nicht wieder verschwinden. Nach der neuesten Bitkom-Untersuchung planen oder setzten bereits 40 Prozent der Unternehmen Big-Data-Technologien ein. Nachdem das Thema nun prominent geworden ist, wird es wahrscheinlich eine Reihe neuer Ideen geben und Big Data die IT für die kommenden Jahre dominieren. Big Data wie Cloud werden schließlich beginnen, die Welt zu digitalisieren.
Big Data fasziniert und macht Angst
Big Data ist weiterhin eine der faszinierendsten Technologien, kann aber in den Augen mancher auch suspekt oder gar gefährlich sein. Um Claus Pias, Professor für Medientheorie an der Universität Lüneburg, zu zitieren: "Der Erwartungshorizont wird, als das was als Erinnerung des eigenen und fremden Wissens abrufbar ist, und das was uns von der Zukunft als künftigem Erfahrungsraum abschließt, in digitalen Kulturen zu einer neuen Form von Gegenwart zusammenschnurren".
Die Diskussion um Datenschutz und Privacy
Vergleiche der teilweise hysterischen Diskussion in Deutschland über Datenschutz und Privacy auf der einen Seite und den fast diskussionslosen Aktivitäten des HIS (Hinweis- und Informationssystem der Deutschen Versicherungsgesellschaften) und der Schufa sind legitim. Bei HIS und Schufa besteht kaum öffentlicher Diskussionsbedarf über Datenschutz, obwohl dies unter den gegebenen Kriterien des Big Data durchaus der Fall sein sollte.
HIS hat seinen Frieden mit den Verbraucherschützern ebenso gemacht wie die 1927 gegründete Schutzgemeinschaft für allgemeine Kreditsicherung, kurz Schufa. Letztere kann sich sogar mit dem Gütesiegel des BGH schmücken, was die Geheimhaltung Ihrer Arithmetiken betrifft.
Hat die Schufa die ständig aktualisierten Daten von 66 Millionen Verbrauchern und deren Scoring mit rund 682 Millionen Datensätzen vorrätig, verfügen die Versicherungsgesellschaften über alle Daten aus Unfällen, Schäden und Regulierungen aller Versicherungsnehmer aller Gesellschaften. Die Frage, wem welche Daten heute und in Zukunft gehören, bleibt ebenso offen wie die Relevanz zukünftiger Gesetzesvorlagen.
Erste Erfolgsgeschichten
Die größte Veränderung in der Big-Data-Landschaft im vergangenen Jahr ist die Tatsache, dass jetzt Erfolgsgeschichten über eine breite Palette von Anwendungen existieren. Diese Erfolge haben damit begonnen, das Konzept zu validieren und tragen dazu bei, Big Data als wesentliche Komponente einer neuen Analytics-Lösung anzusehen.
Dies ist insofern wichtig, da Business-Analytics sich zuvor in einer sub-technischen Zone relationaler Datenbanken und strukturierter Datenhaltung befand. Aber technische wie geschäftliche Entwicklung einschließlich Cloud Computing, Open-Source-Lösungen sowie allgegenwärtige Daten und stark sinkenden Preisen für Speicher-und Rechnerzeiten stellen einen unmittelbaren Bedarf an neuen analytischen Lösungen auf Basis von Volumen, Vielfalt und Geschwindigkeit der Analysen dar.
Die Charakteristika von Big
Bei fortschreitender Evolution werden die unzähligen Befürchtungen mit einer Reihe von neu entwickelnden Technologien wohl gelöst werden; viele von ihnen haben eine transformative Wirkung. Insbesondere kann man eine wachsende Trennung zwischen streng volumenorientierten Lösungen wie Hadoop und Geschwindigkeits-orientierten Lösungen beziehungsweise Echtzeitverhalten feststellen.
Es gibt außerdem eine wachsende Abspaltung zwischen leicht verwendbaren, visuellen Daten mit entsprechenden BI-Tools und -Lösungen und fortgeschrittenen Analysen, Modellierungen und Vorhersagen. Diese Lösungen landeten alle in der Kategorie Big, was letztlich die bestimmende Charakteristik ist.
Noch ungeklärte Bereiche
Bisher gibt es allerdings einige bislang unerforschte unstrukturierte Datentypen. In diesen Gebieten müssen noch tiefere Einblicke erforscht werden:
Integration bisher unbekannter, unstrukturierten Datenströme in der analytischen, prädiktiven Betrachtung
Integration Sensor-basierter und mobiler Datenströme in analytischen Prozessen
Erhöhter Unternehmens-Speicherbedarf um großen Datenmengen gerecht zu werden
Die Feinabstimmung von Unternehmensstrategien auf der Basis der Analytik-Werte benötigen Infrastrukturänderung zur Übernahme von Big Data
Bedarf an qualifizierten Analysten und Data-Scientists,
Bedarf an Cross-funktionalen Teams, die komplexe Analysen behandeln
In der Regel wird man weiterhin ein Ansteigen der Nutzung unstrukturierter Daten, sowohl in Echtzeit als auch statisch, in analytischen Systemen feststellen. Neben spezifischen Bereichen des Einzelhandels werden folgende Branchen spezielle Analysen aufbauen: Beherbergungswesen, Medien, Energieversorgung, Finanzdienstleistungen, Gesundheitswesen, Telekommunikation, Regierung, Sicherheit und herstellende Industrie.
Wettbewerb de Anbieter treibt Entwicklung voran
Aufgrund des zunehmenden Wettbewerbs, insbesondere der großen Brands IBM, SAP, SAS, EMC und Oracle, werden Anbieter durch Akquisitionen schrittweise die gesamte Wertschöpfungskette von Big Data abdecken.
Dabei ist ein wichtiger Faktor in der aktuellen Phase der Entwicklung die Tatsache, dass genügend Anwendungsfälle existieren, um einen positiven ROI zu demonstrieren. Dies macht es für Anbieter einfacher zu verkaufen, erhöht aber auch den Druck, nachhaltig wie erfolgreich zu implementieren.
Cognitive Computing und Agile Cognition
Für die Zukunft wird Big Data die Grundlage eines kommenden Trends. So ruft beispielsweise IBM das Cognitive Computing als den nächsten logischen Schritt der Digitalisierung aus. Dort werden Big Data-Analysen dann Echtzeit-Reaktion über semi-automatische und automatisierte Lösungen zu Problemen ermöglichen. Beispiele für dieses Modell sieht IBM in der Fortsetzung seiner Arbeit mit der Watson-Technologie und in einer Vielzahl von autonomen Fahrzeug-Systemen, die durch Google der Welt-Aufmerksamkeit nahe gebracht wurden.
In Zukunft werden die Firmen Unternehmensgeist aufbringen müssen, um Agile Cognition mit der Fähigkeit, schnell zu reagieren, zu verbinden. Durch die Analyse großer Mengen von Echtzeit-Daten mit gleichzeitiger Abfrage hunderter Modelle und Algorithmen können eventuelle Geschehnisse abgefangen oder abgeändert werden. Dies ist der Weg in die Zukunft und es ist daher wichtig, als Vektor verstanden zu werden.
Die kontinuierliche Weiterentwicklung ist von entscheidender Bedeutung für alle Unternehmen Denn wie bei der Cloud werden Big Data und Analytics immer mehr ein Teil der etablierten Infrastruktur sein. Analytics bietet eine Schicht an Intelligenz, die Effizienz und Flexibilität der Geschäftsprozesse verbessert.
Fazit
Für Anbieter eröffnen sich jetzt zahlreiche Möglichkeiten, in Big Data und rund um die zentralen Themen zu investieren. Mobile Lösungen, Integration, Nischenmärkte und Cloud-Angebote sind nur einige der Gelegenheiten. M&A-Aktivitäten in diesem Sektor breiten sich stark aus.
Anbieter wie die IT müssen beginnen, die Anforderungen an Infrastruktur und Personalbedarf, welche die nächste Stufe der Evolution treiben, zu verstehen. Organisationen, die in der Lage sein werden, schneller zu reagieren, werden die Vorteile ernten.