Analytics Forum

TIBCO stellt Neuheiten für visuelle Analytik vor

07.06.2021
Von 
Jürgen Mauerer ist Journalist und betreibt ein Redaktionsbüro in München.
Die Analyse und Visualisierung von historischen und Echtzeit-Daten mit Machine Learning bilden mittlerweile den Kern von datengetriebenen Unternehmen. Auf dem TIBCO Analytics Forum standen daher Themen wie Datenmanagement oder visuelle Analytik im Fokus.
Im Mittelpunkt des digitalen TIBCO Analytics Forum 2021 standen Neuheiten in den Bereichen Datenmanagement, visuelle Analytik, Datenwissenschaft und Streaming-Analytik.
Im Mittelpunkt des digitalen TIBCO Analytics Forum 2021 standen Neuheiten in den Bereichen Datenmanagement, visuelle Analytik, Datenwissenschaft und Streaming-Analytik.
Foto: Postmodern Studio - shutterstock.com

Daten, Daten und nochmals Daten - die Menge und Vielfalt der verfügbaren Daten in Unternehmen wächst immer weiter. Datenmanagement und Analytik rücken daher immer mehr in den Mittelpunkt der Unternehmensstrategie. Der Handel setzt beispielsweise auf Datenanalysen, um Kunden zu gewinnen oder Umsätze zu steigern, in der smarten Fabrik steuern Firmen die Produktion auf Basis von Informationen aus vernetzten Maschinen oder bilden neue Pay-per-Use-Geschäftsmodelle. Ein Maschinenbauer verkauft dann keine Maschinen mehr, sondern lässt sich für die Zahl der produzierten Teile bezahlen.

Doch auf dem Weg zu einem datengetriebenen Unternehmen liegen viele Stolpersteine - von einer unzureichenden Daten-Basis bis hin zu Herausforderungen beim Aufbau von Datenmodellen für Machine Learning oder bei der Analyse von Echtzeitdaten. All diese Themen diskutierten namhafte Experten, Analysten, Datenwissenschaftler, Entwickler, Partner und Kunden auf dem TIBCO Analytics Forum, das in diesem Jahr vollständig digital stattfand. Im Mittelpunkt der Veranstaltung standen Neuheiten in den Bereichen Datenmanagement, visuelle Analytik, Datenwissenschaft und Streaming-Analytik.

TIBCOs Drei-Säulen-Prinzip

Matt Quinn, Executive Vice President Products and Technology bei TIBCO, betonte in seiner Keynote, wie wichtig Analytics für Unternehmen sei, um schnell und intelligent zu entscheiden sowie Unsicherheiten in Zeiten der Corona-Pandemie zu bewältigen. "Es ist zentral, dass dafür die richtigen Daten zum richtigen Zeitpunkt am richtigen Ort im richtigen Kontext vorhanden sind. TIBCO sorgt mit seinen Produkten aus den drei Säulen Connect, Unify und Predict dafür, dass die Daten in hoher Qualität zur Verfügung stehen und bietet Visualisierung von historischen Daten, Streaming von Echtzeitdaten und Machine Learning auf einer Plattform", sagte Quinn.

Matt Quinn erläuterte in seinem Vortrag auf dem TIBCO Analytics Forum die drei Säulen Connect, Unify und Predict.
Matt Quinn erläuterte in seinem Vortrag auf dem TIBCO Analytics Forum die drei Säulen Connect, Unify und Predict.
Foto: TIBCO

Die Ursprünge von TIBCO liegen in der Säule Connect, sprich der Verbindung und API-basierten Integration von Datenquellen und Anwendungen aller Art. Mit Produkten wie TIBCO Cloud Integration oder TIBCO Cloud Mashery können Firmen etwa Bestellungen aus Websites automatisiert in ihrem ERP-System bearbeiten oder Kunden über eine Schnittstelle Flüge buchen. TIBCO bietet hier auch einen Marketplace mit Konnektoren und vorgefertigten Integrationen als Starterpaket an.

Die zweite Säule Unify steht für Datenmanagement, Data Governance, Datenqualität und eine einheitliche Sicht auf Daten über verschiedene Datenquellen hinweg, um sie bei der Analyse besser visualisieren zu können. Zentrale Produkte sind hier die TIBCO EBX Software für die Verwaltung und Nutzung aller gemeinsamer Datensätze sowie TIBCO Data Virtualization für die Datenvirtualisierung. Datenvirtualisierung sammelt als eine Art Middleware Daten aus verschiedenen Quellen und bündelt sie in einem virtuellen Datenmodell. Das heißt: Die Informationen werden nicht als physische Kopie gespeichert, sondern stehen virtuell zur Verfügung und bleiben dort, wo sie gespeichert sind.

Ein wichtiger Teil von Datenvirtualisierung ist ein leistungsfähiger QueryOptimizer. Dieser sorgt dafür, dass Datenzugriffe und Joins mit größtmöglicher Effizienz erfolgen. Der QueryOptimizer optimiert den Ausführungsplan der Abfrage und berücksichtigt dabei Datenmengen. Auf diese Weise kann Datenvirtualisierung Daten sehr effizient bereitstellen. Sind Datenquellen nicht 24x7 verfügbar oder erfolgt der Zugriff trotz Optimierung zu langsam, werden die Daten in einem leistungsfähigen Cache abgelegt und vorgehalten. Das Laden der Daten aus den Zielsystemen und die Aufbereitung für die Analyse erfolgen dann direkt zum Zeitpunkt der Abfrage.

Analytics mit Visualisierung und KI

Im Zentrum des TIBCO Analytics Forum stand die dritte Säule Predict, sprich die intelligente Analyse von Informationen aller Art inklusive Echtzeitdaten mit Hilfe von Machine Learning und die Visualisierung der Ergebnisse für bessere geschäftliche Entscheidungen. Zentrale Produkte dafür sind TIBCO Data Science zum Trainieren der analytischen Modelle sowie vor allem die Analyse-Plattform TIBCO Spotfire, die Muster in Daten findet und visualisiert.

Michael O'Connell, Chief Analytics Officer bei TIBCO, sprach auf dem digitalen Event ausführlich mit Ben Shneiderman über die Geschichte und Entwicklung von TIBCO Spotfire. Shneiderman ist emeritierter Professor der Universität von Maryland und führender Experte auf dem Gebiet der Informationsvisualisierung und menschenzentrierten KI. Unter seiner Leitung wurde der "Stammvater" von TIBCO Spotfire entwickelt.

Er erzählte von den Anfängen im Jahr 1991, als die Forscher das Periodensystem der chemischen Elemente für die Visualisierung und Manipulation von Objekten nutzten, den Zoom-Faktor oder die Farben auf einer grafischen Benutzeroberfläche änderten. Nächste Schritte waren etwa ein Film-Finder für Hollywood-Klassiker mit einer weiterentwickelten Benutzeroberfläche für die Auswertung von Daten, Terminals für Bloomberg mit Informationen zu Aktienkursen oder die Erfindung der Tree Maps. Diese Kacheldiagramme dienen der Visualisierung hierarchischer Daten-Strukturen.

Ben Shneiderman (oben) blickt im Gespräch mit Michael O'Connell auf die Einführung der Tree Map zurück.
Ben Shneiderman (oben) blickt im Gespräch mit Michael O'Connell auf die Einführung der Tree Map zurück.
Foto: TIBCO

Mittlerweile bietet Spotfire eine Vielfalt von Funktionen für die Datenvisualisierung, vom Drilldown für die schrittweise tiefere Analyse von Daten mit Zoom-Funktion oder die visuelle Darstellung von Daten wie Verkaufszahlen oder Versicherungsfällen in Landkarten. Für Ben Shneiderman ist und war Datenanalyse mit Hilfe von KI immer "human centered", sprich die Menschen und Benutzerfreundlichkeit sollten im Zentrum stehen.

Neue Funktionen für TIBCO Spotfire

Arnaud Varin, Senior Product Manager bei TIBCO, stellte in seiner Keynote aktuelle und geplante Neuerungen für TIBCO Spotfire vor. Impulse für neue Funktionen kommen dabei auch aus dem TIBCO Ideas Portal, auf dem Anwender Ideen einbringen können. Varin charakterisierte Spotfire als Kombination aus Data Science, Realtime Analytics und Visualisierung und präsentierte die Innovationen aus folgenden fünf Bereichen:

  1. Data Discovery: Neue Visualisierungs-Funktionen wie Network Charts oder Visualization Mods (siehe unten), anpassbare Toolbars, Multilayers in Maps, eine neue Web-basierte Benutzeroberfläche oder Funktionen für eine bessere Zusammenarbeit im Team.

  2. Data: TIBCO erweitert und verbessert in Spotfire den Zugriff auf Daten, etwa durch eine neue In-Memory-Engine, mehr Schnittstellen zu Cloud-Storage-Angeboten oder Funktionen für die Analyse von historischen Streams.

  3. Analytic Applications: Im Bereich der KI-basierten Analyse gibt es Neuerungen wie anpassbare Menüs oder Visualization Mods. Geplant sind Empfehlungen für Next-best-Action oder Actions und Workflow Mods.

  4. White Label & OEM: Kunden können TIBCO Spotfire jetzt an ihre eigene Corporate Identity und ihre speziellen Layout-Vorgaben anpassen. Geplant sind zudem ein Web-basiertes User Interface für den Zugriff über den Browser sowie eine einfachere Portierung über die Container-Technologie.

  5. Cloud: TIBCO baut sein Cloud-Angebot aus, setzt auf Automatisierung und unterstützt alle maßgeblichen Standards und Cloud-Anbieter. Damit vereinfacht sich das Streaming von Daten aus der Cloud. Künftig will das Unternehmen auch vollständigen Support für Kubernetes bieten und alle Services auch für GNU/Linux über Container bereitstellen.

Spotfire Mods

Bis vor kurzem unterstützte TIBCO Spotfire die üblichen Standardwerkzeuge für die Visualisierung von Daten wie Linien-Charts oder Tree Maps, die Anwender und Kunden konnten aber keine eigenen Visualisierungs-Designs bauen. Mit den Spotfire Mods ändert sich das. TIBCO bezeichnet dieses neue Angebot als "Power to the People"-Analyselösung. Mods ermöglichen die Entwicklung von Analyse-Tools mit individuellen visuellen Elementen und Erweiterungen, damit Unternehmen und Organisationen einen echten Mehrwert aus ihren Datenbeständen erzielen. Um die Entwicklung von Mods zu forcieren, startete TIBCO bereits einen "Modathon".

Michael O'Connell, Chief Analytics Officer bei TIBCO, zeigte auf dem TIBCO Analytics Forum als Beispiel für einen Spotfire Mod eine Animation, die im Zeitraffer den Status für die Anzahl der Corona-Impfungen in den einzelnen US-Bundesstaaten grafisch darstellte. Auch Aeroporti di Roma, der Betreiber der beiden römischen Flughäfen Leonardo da Vinci-Fiumicino und Ciampino, nutzt Spotfire für die Optimierung der Management-Prozesse oder die Lenkung von Besucherströmen in Echtzeit.

Zudem präsentierte Ahmer Srivastava, Director Memory Product Solutions for Analytics and Software Applications bei Western Digital, wie der Storage-Hersteller Spotfire Mods für die Simulation und Analyse seiner NAND-Flash-Produktionsprozesse über Digital Twins sowie die Qualitätskontrolle in der Wafer-Fertigung nutzt. Bei letzterem werden die Wafer in der so genannten Wafer Spatial Pattern Classification grafisch in verschiedene Schichten zerlegt, um bei der Analyse von Mustern Anomalien und Fehler zu erkennen.

Digital Twin: Western Digital visualisiert seine Prozesse bei der Wafer-Fertigung mit Hilfe von TIBCO Spotfire.
Digital Twin: Western Digital visualisiert seine Prozesse bei der Wafer-Fertigung mit Hilfe von TIBCO Spotfire.
Foto: TIBCO

Hyperconverged Analytics

Michael O'Connell schlug am Ende der Keynote noch den Bogen zu Hyperconverged Analytics, den Analytics-Ansatz von TIBCO, der die Visualisierung von historischen Daten, Streaming von Echtzeitdaten und Machine Learning auf einer Plattform zusammenbringe. "Die beiden Welten der Echtzeitereignisse und der Analyse kumulativer Daten werden zunehmend eins", sagte er. "Hyperconverged Analytics ermöglicht es, Einblicke in historische und Echtzeit-Daten visuell darzustellen. Gemeinsam kombinieren wir damit Datenmanagement und maschinelles Lernen mit Echtzeitdaten, um geschäftliche Entscheidungen voranzutreiben."

Mit TIBCO Data Science können Firmen auf Basis von historischen Daten ein analytisches Modell erzeugen und trainieren und dann in Spotfire mit Echtzeit-Daten verknüpfen und visuell auswerten. Ein Beispiel: Maschinenbauer erzeugen einen Digital Twin ihrer Produktionsumgebung und ermitteln auf Basis von historischen Daten die idealen Parameter für eine hohe Produktqualität. Dieses Datenmodell lässt sich dann in Spotfire integrieren, das dafür unter anderen Laufzeitumgebungen für Machine Learning-Modelle auf Basis von Python, R oder MadLab bietet.

Über TIBCO Cloud Data Streams, eine Cloud-basierte BI-Plattform mit Echtzeit-Streaming, lassen sich diese Datenmodelle in Spotfire mit Echtzeitdaten verknüpfen und für Analysen in einem Dashboard visuell aufbereiten. Anwender können dadurch neue Trends und Muster erkennen, sobald sie auftreten, Veränderungen vorwegnehmen und Maßnahmen ergreifen, wenn es darauf ankommt. Beim Beispiel Produktion lassen sich so beim Vergleich der Echtzeitdaten mit dem Datenmodell der historischen Daten Anomalien oder Fehler erkennen. Firmen können auf Basis dieser Analysen letztlich die Produktion besser steuern. (mb)