So soll es künftig ablaufen: Der Spediteur liefert das Coil (Rolle) Stahlblech für die Produktion von Waschmaschinen beim Hausgerätehersteller ab, wo der Barcode automatisch ausgelesen wird und die Daten ins Produktionssystem übertragen werden. Mit diesen Materialdaten des Blechlieferanten stellt sich die verarbeitende Maschine automatisch ein, so dass die Weiterverarbeitung optimal erfolgen kann. Dabei läuft der Datenverkehr direkt und sicher zwischen dem Lieferanten und seinem Kunden, die Daten lagern in keiner Cloud.
Das Szenario ließe sich noch weiter spinnen. So könnten zum Coil künftig mittels Sensoren im Verarbeitungsprozess weitere Daten gesammelt werden. Diese Daten könnte der Kunde beim Lieferanten kostenlos, gegen Gebühr oder mit bestimmten Einschränkungen abrufen, je nachdem, was vereinbart wurde.
Für CIO Heike Niederau-Buck von der Salzgitter AG ist das ein klassisches Anwendungsbeispiel für den Industrial Data Space (IDS): Die Daten stehen zur Weiternutzung bereit, aber der Eigentümer kann steuern, wer sie zu welchen Konditionen und in welchem Umfang bekommen soll. "Es gehen keine Daten raus, ohne dass ich weiß, was für Daten es sind und wer sie erhält", erläutert Niederau-Buck.
Die Architektur des Industrial Data Space
Doch für einen sicheren Datenaustausch in der vernetzten Welt gibt es bisher weder eine Architektur noch Standards. Das war der Anlass für die Fraunhofer-Gesellschaft, eine neuartige Sicherheitsarchitektur zu entwickeln. Sensible Daten möchte kaum ein Unternehmen in eine zentrale externe Cloud-Plattform legen. Niemand weiß, wer in solchen Data Lakes sonst noch herumfischt. "Wir brauchten also eine alternative IT-Architektur, die nicht auf einem zentralen Datenpool basiert, sondern auf einem dezentralen Ansatz", erläutert Reimund Neugebauer, Präsident der Fraunhofer-Gesellschaft und Initiator der Initiative Industrial Data Space.
In dem virtuellen Datenraum sollen Unternehmen Daten nur mit solchen Partnern austauschen, mit denen sie vorher die Nutzungsbedingungen selbst festgelegt haben und denen sie vertrauen. "Dafür gab es bisher noch keine Lösung, weswegen wir aus Deutschland heraus einen internationalen Standard für Datensouveränität schaffen wollten. Das ist eine Kernherausforderung in der Digitalisierung", kommentiert Neugebauer den Start der Initiative im Oktober 2015.
Konnektoren sind zentrale Elemente
Inzwischen gibt es eine Referenzarchitektur, eine erste Broker-Version, die das Matching zwischen Datenangebot und -nachfrage regelt, und zwei Konnektoren, die sich Teilnehmer als Software herunterladen können. Dabei ist die zentrale Komponente der Industrial Data Space Connector, der als Basiskonnektor die Daten mit den Nutzungsbedingungen verbindet. In der ersten Version des IDS-Connector setzt Fraunhofer auf Docker-Technologie, um sicherzustellen, dass sich die Abläufe in den Containern nicht korrumpieren lassen.