Laut einer aktuellen Studie der Marktforscher von PAC ("IoT & the Data Analytics Challenge") analysiert überhaupt nur jedes dritte Unternehmen seine IoT-Daten. Lediglich 28 Prozent haben eine zentrale Analytics-Plattform zur Verarbeitung der Daten implementiert. Warum ist das so? Welche Big-Data-, Analytics- oder IoT-Lösungen ergeben für das Unternehmen überhaupt Sinn und welche Faktoren entscheiden über den Erfolg?
Fehlende Voraussetzungen im Unternehmen
Bevor Unternehmen IoT-Projekte starten, sollten sie sich Gedanken darüber machen, welche Daten sie bereits "besitzen". Hierbei ist zum einen die oft zitierte Datenflut ein Problem, aber auch die Herausforderung, sich auf eine neue Nutzung der Informationen einzulassen. Dazu sind einige Dinge nötig, die auch unter dem Begriff der "Digitalen Transformation" zusammengefasst werden. Am wichtigsten ist ein Umdenken innerhalb der Organisation, um Entscheidungen stärker auf Basis von Datenmodellen und Analysen als aufgrund von Erfahrungswerten zu treffen und die Prozesse entsprechend anzupassen. Wenn dieses Umdenken noch nicht erfolgt ist, sind die Erfolgsaussichten für Analytics- oder Big-Data-Projekte eher gering.
Unrealistische Ziele
Unternehmen starten zu oft mit Projekten, die sehr komplex oder sehr schwierig in der Umsetzung sind. Übertriebener Ehrgeiz lässt viele Projekte scheitern, weil sich in absehbarer Zeit kein Erfolg einstellt und das Management die Geduld mit dem Projekt verliert. Besser ist es, mit überschaubaren Projekten zu beginnen, bei denen sich ein ROI innerhalb von einigen Wochen bis Monaten erreichen lässt. Zum einen lassen sich dabei sehr gut Erfahrungen sammeln, zum anderen führt diese Vorgehensweise schneller zu Ergebnissen und messbaren Erfolgen.
Testballon versus Produktionsbetrieb
Viele IoT- und Big-Data-Projekte scheitern an mangelnder Stabilität und Zuverlässigkeit. Es ist eine Sache, auf einer "Spielwiese im Lab" eine Lösung zu bauen, aber eine andere, diese hinterher für einen 24x7-Produktionsbetrieb mit deutlich größeren Datenbeständen zu realisieren. Open Source hört sich einfach und flexibel an, aber der Teufel steckt hier im Detail. Plattformen wie Hadoop und die entsprechenden Tools unterschiedlicher Anbieter lassen sich kostenlos downloaden und, zumindest in der Theorie, selbst konfigurieren. Auf diese Weise wird ein versierter Admin vermutlich auch einen Prototypen zum Laufen bekommen.
Sobald solche Umgebungen jedoch in größerem Maßstab und mit den entsprechenden Anforderungen des Unternehmens an Datensicherheit, Stabilität und Skalierbarkeit in einen stabilen Betrieb übernommen werden sollen, ist ein Scheitern vorprogrammiert. Eine Alternative bieten hier professionelle Hadoop-Distributionen für den Enterprise-Einsatz. Es ist auch möglich, auf entsprechende Big-Data-Appliances zurückzugreifen oder die Lösung hosten zu lassen. Die Vorteile sind der Support vom Hersteller der Distribution - ähnlich wie in der Linux Welt - und ein realisierbares Konzept, das den reibungslosen Hardware- und Software-Betrieb gewährleistet.
Identifikation relevanter Daten
Angesichts der Datenflut, die von Maschinen, Sensoren und sonstigem Equipment generiert wird, ist es schwierig herauszufinden, welche Daten für die Analyse und die darauf basierenden Entscheidungen relevant sind. Wichtig ist auch, ob die Daten in Echtzeit analysiert werden müssen, oder ob Zeit vorhanden ist, dies in einem nachgelagerten Prozess zu tun. Ein Beispiel hierzu aus dem Telco-Bereich ist die Überwachung des Netzwerkes und des genutzten Netzwerkequipments. Die Überwachung des Netzes und dessen Funktionalität muss in Echtzeit erfolgen - wir wollen ja alle unsere Telefonate führen und die Datendienste nutzen. Hier muss eine Lösung geschaffen werden, die Millionen von Paketen von unterschiedlichen Geräten und Systemen in Echtzeit zusammenführt, auf Verletzungen von SLAs (Service Level Agreements) überprüft und entsprechende Warnungen, Alarme und Aktionen triggert.
Auf der anderen Seite ist es Ziel des Unternehmens, Mehrwert-Dienste zu entwickeln und zu verkaufen. Hierzu ist aber eine längerfristige Analyse der Daten nötig. Die Lösung hierzu muss also sowohl Echtzeit- als auch Batch-Verarbeitung zulassen. Der Echtzeit-Part der Lösung muss die wichtigsten SLAs überwachen (etwa die Response-Zeit und Anzahl der Pakete pro Sekunde), um bei Verletzung der Anforderungen sofort Aktionen zu veranlassen. Dies kann nicht durch zentrale Verarbeitung erreicht werden, sondern muss vor Ort - am Sendemast, der Antenne etc. - erfolgen. Streaming-Plattformen mit minimalen Hardwareanforderungen können diese Echtzeit-Analyse realisieren. Der Langzeitanalyse-Part kann dann durch eine Übertragung der Daten in ein Rechenzentrum und entsprechenden Analytics-Clustern realisiert werden.