Unter Begriff ODBMS - Operational Database Management Systems lässt sich ein bunter Strauss an sehr unterschiedlich konzipierten Datenbanksystemen zusammenfassen. Gemeinsam ist ihnen, dass sie Daten nicht als sequentielle Datei beziehungsweise nach einem Entity-Relationship-Modell (ERM) ansprechen. Durch die explosionsartige Vermehrung an neuen Datenauswertungs-Szenarien - vereinfachend als Big Data bezeichnet - sind Zugriffe mit SQL auf Datenbestände für viele Anwendungen nicht mehr zeitgemäß. Für die derzeit besonders vielversprechenden Anwendungen, wie sie in den Bereichen "Predictive Analysis" (Prognosen auf Basis großer Datenmengen), Video- und Data-Streaming, SmartCity, Connected Cars oder Industrie 4.0 zu finden sind, benötigen Anwender künftig jeweils maßgeschneiderte Zugriffswege auf die Daten.
ODBMS werden daher künftig die Schlüsselrolle für viele Enterprise-Anwendungen spielen. Urvater der ODBMS ist "MUMPS", eine Programmiersprache mit integrierter Datenbank, welche gezielt für das Bearbeiten von strukturfreien Datenbanken wie große Textdokumente geschaffen wurde, was in den 1960ger Jahren die visionäre Herausforderung am Massachusetts Institute of Technology (MIT) war. Aus dieser Forschung ging dann das spätere "Interbase Caché" hervor, auch heute noch eine der führenden und visionären post-relationalen Datenbanksysteme.
ODBMS - die nächste Datenbankgeneration
Ein ODBMS ist keine Alternative zu relationalen Datenbank-Management-Systemen (RDBMS), sondern die nächste Generation. Auch eine klassische SQL-Datenbank nach dem Entity Relationship Model lässt sich damit jederzeit modellieren, indem man jede Tabelle schlicht als ein Objekt anlegt und betrachtet. Charakterisierend für ODBMS ist, dass solche Datenbanken zusätzlich zu den atomaren Informationen auch Aggregationen (zusammenfassende Zwischenergebnisse) und strukturfreie Information abspeichern, wie sie bei Texten häufig vorkommen oder für flexible Auswertungen, also dem klassischen Data-Mining auf einem Business-Warehouse benötigt werden.
Manche ODBMS entscheiden sogar in Verfahren nach dem Muster der Künstlichen Intelligenz selbst, welche Daten überhaupt abgespeichert werden. Der alternative Begriff einer "Post-relationalen Datenbank" beschreibt die Realitäten besser: Das sind Datenbanken, die sich nicht mehr an den technischen Begrenzungen orientieren, sondern an den visionären Zielen der Anwendungsentwicklung.
Anwendungen für ODBMS
Für Anwender stellt sich nun die Frage, welche ODBMS für das eigene Einsatzszenario die beste ist. Das ist allerdings nicht einfach zu beantworten. Für RDBMS gibt es noch gute und hinreichend sinnvolle Vergleichsparameter, weil diese zumindest funktional sehr ähnlich zueinander sind: Allerdings geht es dabei meist nur um einfache Performance-Messungen beim Zugriff auf kleine oder große Tabellen, den Aufbau von JOINs oder das Ausführen von vordefinierten Kalkulationen sowie das Verhalten bei technischen Störungen, wie einem Netzwerkausfall oder Fehlern bei Speichermedien.
ODBMS sind jedoch so verschieden und oft derart auf bestimmte Anwendungen spezialisiert, dass sie kaum mehr unmittelbar miteinander zu vergleichen sind. Im Markt gibt es einen solch weit gespannten Reigen an Anwendungen, dass es künftig nicht mehr die eine "beste" Datenbank geben wird, sondern eine große Anzahl an verschiedenen Lösungen, die jeweils in ihrer eigenen Anwendungsnische glänzen können.
Predictive Analysis (Big Data für Ultra-Large-Systems): Hier geht es um die klassische Herausforderung im Bereich Big Data. Das ist der Sektor, den primär auch SAP mit seinem In-Memory-System HANA umwirbt. Wir sprechen hier auch oft von Ultra-Large-Systems als Bezeichnung für das Zusammenspiel von einer unkontrollierbar großen und gewöhnlich nicht vorhersehbaren hohen Anzahl an Computersystemen und Software-Agenten. Ziel ist, aus einer riesigen sich ständig ändernden Datenmenge Erkenntnisse zu gewinnen und so künftige Entwicklungen vorherzusagen.
5. Integration der neuen analytischen Methoden in die bestehenden Systeme.
4. Pilotprojekt/Prototyp: Auswertung der Daten in entsprechenden Vorhersagemodellen; Modelle und Analyse-Methoden werden ständig verfeinert, kombiniert und evaluiert, um die Qualität der Prognose zu verbessern.
3. Auswahl/Zuschneiden der Datensätze und Kombination mit externen Daten.
2. Business Case festlegen: Definition eines konkreten Ziels mit Kennzahlen (z.B. Umsatz um Summe x steigern, Fehlmenge reduzieren etc.), das mit Hilfe der Prognosen erreicht werden soll.
1. Analyse des Geschäftsmodells, der Geschäftsprozesse und der vorhandenen Daten.
Financial Storm Prediction: Eine momentan sehr gefragte Anwendung sind Systeme zur Analyse von "Financial Storms", also das Vorhersagen von plötzlich und heftig auftretenden ("sturmartig") Veränderungen am Finanzmarkt wie beispielsweise Börsen-Crashs und Bankenpleiten wie im Falle Lehmann Brothers. Das funktioniert ähnlich wie die Wettervorhersage und - kein Wunder - die Algorithmen sind verwandt.
Financial Fraud Analysis: Ebenfalls im Finanzsektor sehr beliebt sind Systeme, die alle Banktransaktionen online analysieren und Erkenntnisse gewinnen wollen, ob kriminelle Aktivitäten stattfinden.
Data Streaming: Beim Data Streaming geht es um das Bereitstellen großer Datenmengen an eine Vielzahl von Clients, die aber allesamt gewöhnlich zeitversetzt zueinander darauf zugreifen. Klassiker ist hier das Videostreaming beim Zugriff auf Videotheken.
Industrie 4.0, Smart City und Connected Cars: Hier geht es darum, einen permanent dahin rauschenden Informationsfluss bereits frühzeitig nach brauchbaren und unbrauchbaren Daten auszusortieren. Es gilt, Daten zu analysieren bevor diese überhaupt abgespeichert werden - der Klassiker einer In-Memory Anwendung. Tatsächlich ist dies das Spielfeld von Enterprise Service Bus Software und Message-Queuing Systemen wie zum Beispiel IBM Websphere MQ, Oracle OSB, Software AG Webmethods, Fiorano ESB, MULE oder Talend.
- Industrie 4.0 - Leitfaden für CIOs
Stephen Prentice (Gartner) legt den IT-Verantwortlichen zwölf Dinge ans Herz, die sie für den IT-Beitrag zu Industrie 4.0 beachten beziehungsweise tun sollten: - 1. Nur keine Panik!
Industrie 4.0 ist kein Sprint, sondern ein Marathon. Die gute Nachricht: Wenn man nicht so genau sieht, wo es hingeht, kann man bislang auch nicht wirklich eine Gelegenheit verpasst haben. - 2. Integrieren Sie Informationstechnik und operationale Technik!
Unter operationaler Technik (OT) versteht Gartner Ingenieurtechnik mit einer Langzeitperspektive. Sie liefert Information über das, was im Inneren der Produktionssysteme vor sich geht. Dabei ist sie digital, aber nicht integriert. - 3. Steigern Sie den Reifegrad Ihres Fertigungsprozesses!
Lernen Sie Ihre Mitspieler auf der Produktionsseite kennen. Verstehen Sie deren Sorgen und Hoffnungen und planen Sie den gemeinsamen Fortschritt auf einem fünfstufigen Weg. - 4. Integrieren Sie Ihre Informations-Assets!
Reißen Sie Ihre Silos nieder und öffnen Sie Ihre Unternehmenssysteme auch für externe Informationsquellen: Wetterdaten, Social Media etc. "Ihre wertvollsten Daten könnten von außerhalb Ihres Unternehmens stammen", konstatierte Gartner-Analyst Prentice. - 5. Verinnerlichen Sie das Internet der Dinge!
Das Internet of Things (IoT) ist der international gebräuchliche Begriff für das, was die Grundlage der Industrie 4.0 - und des digitalen Business - bildet. - 6. Experimentieren Sie mit Smart Machines!
Virtuelle Assistenten für die Entscheidungsunterstützung, neuronale Netze, cyber-physikalische Systeme, Roboter und 3D-Druck mögen aus der heutigen Perspektive noch als Spielerei erscheinen. Aber es lohnt sich, ihre Möglichkeiten auszuloten. - 8. Scheuen Sie sich nicht, den Maschinen ein paar Entscheidungen anzuvertrauen!
Der Fachbegriff dafür ist Advance Automated Decision Making. Es gibt schon einige Bereiche, wo Maschinen statt des Menschen entscheiden, beispielsweise bei der Einparkhilfe für Kraftfahrzeuge. - 9. Denken Sie wirklich alles neu!
Jedes Produkt, jeder Service, jeder Prozess und jedes Device wird früher oder später digital sein. Denken Sie sich einfach mal Sensoren und Connectivity zu allem hinzu. - 10. Führen Sie bimodale IT ein!
Die Koexistenz zweier kohärenter IT-Modi (einer auf Zuverlässigkeit, einer auf Agilität getrimmt) gehört zu den Lieblingsideen der Gartner-Analysten. Stabilität und Schnelligkeit lassen sich so in der jeweils angemessenen "Geschwindigkeit" vorantreiben. - 11. Kollaborieren Sie!
Werden Sie ein Anwalt für Industrie 4.0. Schließen Sie sich Peer Groups, Konsortien und Standardisierungsgremien an. Denn die besten Ideen müssen nicht zwangsläufig aus dem eigenen Unternehmen kommen. - 12. Halten Sie die Augen offen!
Die Dinge verändern sich - ständig. Erfolgreiche Unternehmen wie Google und Amazon wissen das. Sie sind immer auf der Suche nach neuen Entwicklungen und Möglichkeiten. - 7. Werden Sie ein Digital Business Leader!
Der CIO sollte sich für das digitale Business engagieren. Dazu muss er aber seinen Elfenbeinturm verlassen. Denken Sie von innen nach außen, rief Prentice die IT-Chefs auf, und verbringen Sie etwa 30 Prozent Ihrer Arbeitszeit mit Menschen von außerhalb Ihrer Organisation.
Industrie 4.0: Industrie 4.0 ist letztlich eine Kombination von Data Streaming und Predictive Analysis. Einerseits liefern Produktionsmaschinen laufend neue Informationen. Diese müssen aber zunächst ausgedünnt werden, um überhaupt eine vernünftige Analyse zu ermöglichen. Smart City, Connected Cars sind verwandte Anwendungen, die weitgehend die gleiche Herausforderung darstellen.
Smart Coast Guard: Eine sehr anschauliche Anwendung demonstriert die US-Küstenwache. Dort werden die Funkpositionssignale eingesammelt, die jedes Schiff, das sich in den Hoheitsgewässern der USA aufhält mindestens alle fünf Minuten aussenden muss. Bei mehreren Zehntausend Schiffen im Durchschnitt kommen wir hier leicht auf 100 Positionssignalen pro Sekunde.