Das Versprechen von der Datennutzung in Echtzeit braucht die richtige Technologie. Was SAP HANA, SAS Viya und KI auf IBM POWER hierbei leisten, zeigt ein Webcast der Computerwoche. Scale up or scale out - beides ist möglich.
Darüber spricht Dilek Sezgün, AI, Big Data and Open Source Ecosystem and Infrastructure Leader bei IBM, mit Dennis Eichkorn, Head of Alliances & Channels DACH beim SAS Institute AG, und Ulrich Oymann, Business Development Manager, SAS on Power Systems IBM sowie Andreas Span Director & Business Unit Executive, SAP HANA on Power & Cognitive Sales bei IBM. Einen Blick auf den Markt steuert IT-Analyst Axel Oppermann von Avispador bei.
Fachjournalist Oliver Janzen von der Computerwoche moderiert den Webcast und lässt zunächst den Analysten zu Wort kommen. "Das Thema Echtzeit geht gerade durch die Decke", beobachtet Oppermann. Der "Riesen-Enthusiasmus" um das Schlagwort von den Daten als neuem Öl zeigt sich praktisch in den Umbau-Prozessen, in denen viele Unternehmen jetzt stecken. "Und hierfür müssen Daten in Echtzeit zur Verfügung stehen", betont der Analyst.
Der Mythos von den hohen Kosten
Neun von zehn Entscheidern stimmen dieser Aussage auch zu - lassen sich aber ausbremsen vom Mythos, Echtzeit-Daten seien mit hohen Kosten und Aufwand verbunden. Oppermann rät zu einer systematischen Herangehensweise mit Fragen wie: Wo will ich hin? Wie schaffe ich Agilität? Konkret zeigt sich das in der Definition der richtigen Daten und ihrer Quellen sowie der technologischen Grundlagen und Plattformen. Zusammenfassend lässt sich das Thema auf eine Formel herunterbrechen: AI (Artificial Intelligence) geht mit IA (Informations-Architektur) einher. In der Praxis aber hätten viele Unternehmen dafür nicht das interne Know-how, fügt Oppermann an.
Vor dem Weiterdrehen der Expertenrunde will der Moderator wissen, wie sich die Situation bei den Webcast-Zuschauern darstellt. Setzen sie HANA bereits ein und falls ja, wo? 22 Prozent bestätigen den Einsatz auf Power, weitere 28 Prozent planen diesen. Sechs Prozent nutzen HANA auf x86.
Wie auch immer die Nutzungsszenarien aussehen - Span (IBM) stellt eines klar: "Wir sehen uns derzeit mit nie dagewesenen Problemen konfrontiert. Und um die lösen zu können, müssen wir in Echtzeit auf Daten zugreifen." Dabei birgt die Idee von der Single Source of Truth eine Gefahr: sie kann auch eine "Single Source of Failure" sein. Das begründet die Notwendigkeit einer stabilen Infrastruktur. Dazu zählt Span folgende Punkte: Die Plattform muss ein schnelles Provisioning generieren, das System muss sicher sein und die verfügbare Zeit maximieren, um schneller Einsicht in Daten zu gewinnen.
Wenn HANA, dann auf IBM-Plattform - das verargumentiert Span mit Resistenz, Verfügbarkeit und nahtloser Skalierung. "Die Kostenstruktur lässt sich an den Kunden anpassen", betont er. Derzeit kann IBM 75 globale Referenzen aus Retail, Manufacturing, Automotive und anderen Branchen vorweisen. Cloud oder On Prem? Beides ist möglich, ebenso hybride Modelle. Hier spielt die Akquise von Red Hat eine Rolle.
Das Robert-Koch-Institut managt die Corona-Krise mit Echtzeitdaten
Oymanns Experten-Thema ist SAS auf Power. "Die Frage ist weniger, ob SAS installiert ist, sondern, welche Module", sagt er. Seit insgesamt 40 Jahren besteht zwischen SAS und IBM eine Partnerschaft. Oymann sieht das traditionelle SAS als Backbone (9.4 und SAS Grid). Die jetzt auf dem Markt verfügbare Lösung SAS Viya Next Generation beinhaltet ein In-Memory Analytics Framework inklusive ML/DL und AI Workload. Sie ist Open and Cloud-enabled. Als Vorteile nennt Oymann die schnellere Gewinnung von Erkenntnissen, eine Full-Stack-Lösung und maximierte Ausfallsicherheit. Bei Bedarf kann SAS Entscheidern einen neuen Deployment-Guide zur Verfügung stellen.
Eine topaktuelle Referenz nennt Eichkorn (SAS Institute): Das Robert-Koch-Institut (RKI) nutzt Echtzeit-Daten jetzt in der Covid 19-Krise. Wo sind Intensivbetten ausgelastet, wo sind Beatmungsgeräte verfügbar - um solche Fragen geht es. "SAS Viya ist speziell auf solche neuen Herausforderungen der Kunden abgestimmt", sagt er.
Und damit zum Thema Künstliche Intelligenz (KI). Bevor Moderator Janzen zu Sezgün (IBM) überleitet, fragt er die Webcast-Zuschauer, wo sie hier die größten Herausforderungen sehen. Das Ergebnis ist deutlich: 41 Prozent nennen die Entwicklung der Modelle. Jeweils 24 Prozent bezeichnen außerdem das Anlernen der Systeme sowie die Verfügbarkeit ausreichender Daten als Schwierigkeiten.
"Unsere Kunden wissen oft nicht, wie sie ihre Journey to AI starten sollen", bestätigt Sezgün. IBM skizziert das richtige Vorgehen anhand eines Fünf-Stufen-Modells: Basis ist eine moderne Infrastructure for cutting-edge and Data & AI-Workloads. Darauf bauen (von unten nach oben) folgende Themen auf: Collect the Data, Organize, Analyse und Infuse. Auch hier gilt: möglich ist das Ganze On Prem oder in der Cloud. Ist Letzteres gewünscht, empfiehlt die Expertin, "genau zu gucken, welche Daten in die Cloud dürfen".
Pläne für die Nutzung Künstlicher Intelligenz
In Sachen Infrastruktur Demand für AI unterscheidet IBM die zwei Bereich Training und Inference. "In beiden Bereichen braucht man Skalierbarkeit", so Sezgün. IBM-Produkte lassen sich am besten mit Spectrum Scale Storage anbinden. "Für einen Data Scientisten ist es immens wichtig, schnell zu arbeiten", betont sie. Die richtige Lösung kann die Zeit für das Trainieren der Modelle von acht auf drei bis vier Stunden verkürzen. Das IBM AI Portfolio "everything you need for Enterprise AI, on Infrastructure and on any Cloud" bezieht zum Beispiel einige Watson-Produkte mit ein.
Bei der Nutzung Künstlicher Intelligenz haben sich die Webcast-Zuschauer viel vorgenommen: 65 Prozent wollen die Systeme selbst aufsetzen und anlernen, wie eine dritte Umfrage von Moderator Janzen anzeigt. Wie auch immer die Unternehmen das Ganze umsetzen werden - eines ist klar: "Infrastructure matters".