Smart Factories, Smart Cities, Digital Healthcare, künstliche Intelligenz (KI) und Machine Learning (ML) - die Zahl der Daten, die wir täglich generieren explodiert förmlich. Und damit stehen zahlreiche Branchen vor einer Herausforderung, mit der sich die Automobilindustrie schon länger konfrontiert sieht: Wie lassen sich solche Datenmengen noch effizient und zuverlässig weiterverarbeiten?
Die Herausforderung in der Autoindustrie beginnt bei der Entwicklung und Erprobung neuer Fahrzeuge. So liefert ein einziger Erlkönig heute pro Stunde bis zu drei Terabyte an Daten. Wer mehrere Fahrzeuge parallel einsetzt, muss demnach täglich Daten im mehrstelligen Petabyte-Bereich verarbeiten. Zukünftig werden auch vernetzte sowie autonom fahrende Autos das Datenvolumen enorm ansteigen lassen.
Was Mess- und Kontrolleinheiten in Testfahrzeugen oder Sensoren, Steuergeräte und Aktoren an Big Data erzeugen, müssen Autohersteller möglichst zeitnah auswerten, Denn die Analyseergebnisse fließen in die Weiterentwicklung der Fahrzeuge ein. Zudem werden Millionen von Testkilometern nicht nur physisch, sondern vermehrt auch virtuell gefahren. Auch dazu bieten Daten eine wichtige Grundlage.
Die Automobilindustrie steht also vor der Herausforderung, große Datenmengen während des Product Lifecycles zusammenführen und in möglichst kürzester Zeit analysieren zu müssen. Während der Fahrt erfasst ein "Logger" auf Festspeichern (Solid State Disks) die Daten. Am Ende des Arbeitstags werden sie ausgelesen und in die Auswertungssoftware eingespeist. Die Analyseergebnisse sollen bereits nach wenigen Stunden vorliegen, um vor der nächsten Testfahrt kritische Fehler zu beheben und nächste Tests vorzubereiten.
Auf diese Weise lassen sich Entwicklungsprozesse verkürzen und Kosten senken. Jedoch sind klassische Datenverbindungen nicht darauf ausgelegt, die riesigen Datenmengen aus global verstreuten Testgebieten schnell zusammenzufügen. Klassische Analysearchitekturen und Übertragungstechniken kommen aufgrund des Datenvolumens an ihre Belastungsgrenze.
Daten clever analysieren
Die heute üblichen Bandbreiten, die insbesondere bei Fahrzeugtests global zur Verfügung stehen, reichen für den schnellen Datendurchsatz nicht aus - egal ob 4G-Mobilfunknetzte, WLAN, VPN oder Ethernet. Stattdessen sollten Automobilhersteller Daten möglichst nah am Entstehungsort vorverarbeiten und nur die Ergebnisse zentral zusammenführen und auszuwerten.
Es wird also immer wichtiger, große Datenmengen in der Nähe eines Testbeds oder direkt auf dem Fahrzeug sofort analysieren zu können. Aufgrund der schieren Menge an Testdaten und des zunehmenden Bedarfs an virtuellen und physischen Tests, wird das Co-Design von Workloads und der zugrunde liegenden Plattform sowie die Wahl einer geeigneten Topologie zu einem Muss.
Nur durch geschickte Wahl und Platzierung von Infrastruktur und Algorithmen lässt sich der Aufwand für die Analyse von Big Data erheblich reduzieren. Dafür bieten sich drei ergänzende Ansätze an: die Datenlokalität (code to data), die hochskalierbare und parallele Verarbeitung der Daten (parallel code) und die Abstimmung der Hardware auf die Software (co-design).
Durch das Code-to-Data-Prinzip müssen keine Daten zu den Algorithmen gebracht werden. Stattdessen gilt es, Analyse-Code, der ein weitaus geringeres Volumen hat, zu den Daten zu senden und direkt an ihrem Entstehungsort auszuführen. Dadurch wird eine Parallelisierung der Datenauswertung in den einzelnen Fahrzeugen ermöglicht und der Haupt-Thread für die weitere Verarbeitung freigegeben. Nur die Ergebnisse der lokalen Auswertung werden über die üblichen Verbindungen zur zentralen Analyse geschickt. Dies beschleunigt den gesamten Analysevorgang um ein Vielfaches und senkt die Kosten.
Kommunikation ist immer teuer und zeitintensiv, da sie sich nicht verdichten lässt. Wird aber die Datenübertragung reduziert, senkt sich auch der Energieverbrauch, was weniger Kosten bedeutet. Das ist ein entscheidender Vorteil.