IT-Vision 2025 für Versicherungen

So lässt sich die Datenflut bewältigen

21.06.2019
Von  und
Uwe Schmid ist Expert Associate Partner für die Praxisgruppe Informationstechnologie bei Bain & Company in Frankfurt am Main. Er verfügt über mehr als 30 Jahre Erfahrung in der IT- und Softwarebranche. Seine Kernkompetenzen sind IT-Architektur, ERP, IT-Strategie, Organisation, Governance, Agile Development und Digital sowie damit verbundene große IT-Transformationen.


Ingolf Zies leitet als verantwortlicher Partner die IT-Praxisgruppe von Bain & Company im deutschsprachigen Raum und ist Teil des Banken-Teams.
Immer mehr Daten, immer weniger Struktur. Nur mit einer stringenten Datenarchitektur sowie der intelligenten Kombination externer und interner Lösungen können Versicherer von der neuen Informationsfülle profitieren.
Von der Datenmenge überflutet? Struktur kann helfen.
Von der Datenmenge überflutet? Struktur kann helfen.
Foto: gualtiero boffi - shutterstock.com

Seit Menschengedenken sind Rohstoffe knapp und umkämpft. Doch auch das ändert sich mit der vierten industriellen Revolution. Deren Rohstoff – Daten – gibt es im Überfluss. Und aus der Datenflut wird in den nächsten Jahren eine regelrechte Sintflut werden. Bis 2025 dürfte sich das weltweite Datenvolumen noch einmal verzehnfachen, auf dann 163 Zettabyte. Das ist eine 163 mit 21 Nullen!

Massenweise unstrukturierte Daten

Die Sache hat allerdings einen entscheidenden Haken: Das Gros der zusätzlichen Daten wird komplett unstrukturiert sein. Schon 2020 dürfte der Anteil unstrukturierter Daten bei 70 bis 80 Prozent liegen.
Unternehmen stehen vor der Herausforderung, diese Daten effizient aufzubereiten und mit internen Informationen intelligent zu kombinieren. Wer aus den vorhandenen Daten zu Kunden und Konkurrenz die richtigen Schlüsse zieht, erarbeitet sich einen klaren Wettbewerbsvorsprung.

Die Produktivitätsvorteile von Unternehmen, die auch unstrukturierte Daten nutzbar machen, werden sich bis 2020 weltweit auf rund 430 Milliarden US-Dollar summiert haben.

Um daran teilzuhaben, muss die Assekuranz umdenken. Schon heute investiert sie wie andere Branchen auch in Big-Data- und Advanced-Analytics-Technologien. Doch in den kommenden fünf Jahren werden noch sehr viel mehr Investitionen erforderlich sein.

Eine Strategie für das Analytics-Zeitalter

Deshalb ist es wichtiger denn je, dass Versicherungsunternehmen eine Datenstrategie formulieren und für jedes Modul der Datenarchitektur die richtige Mischung aus internen und externen Lösungen finden (sh.Abbildung).

Eine modulare Datenanalyse-Architektur für mehr Flexibilität
Eine modulare Datenanalyse-Architektur für mehr Flexibilität
Foto: Bain & Company

Traditionell nutzen Versicherer vor allem interne Quellen. Doch gerade mit Blick auf Kundenverhalten und -präferenzen werden externe Datenanbieter in Zukunft eine größere Rolle spielen. Dabei ist es gleich, ob es sich dabei um soziale Medien oder um professionelle Zulieferer handelt. Zudem wird sich durch die explosionsartige Zunahme vernetzter Endgeräte eine Fülle zusätzlicher Informationen generieren lassen.

Bisherige Datenbankstrukturen bringt das an ihre Grenzen. Deshalb werden Data Lakes in Zukunft herkömmliche Data Warehouses ersetzen. Entscheidend für die Auswahl der richtigen Lösungen sind deren Skalierbarkeit und Effektivität. Das weiterhin sprunghafte Datenwachstum muss ebenso mitgedacht werden wie der Paradigmenwechsel auf der Zeitachse. Denn neue Technologien wie Hadoop oder Sparks erlauben es mittlerweile, komplexe Analytics-Algorithmen zu programmieren, mit deren Datenanalysen Unternehmen auch einen Blick in die Zukunft werfen können.

Einfacher und sicherer Datenzugriff

Anders sieht die Situation rund um Datendienste, Datenzugriff und Virtualisierung von Daten aus. Je nach Ausgangslage und Anforderungen sind hier externe Standardlösungen oder interne Modelle überlegen. Sicherheit, Einfachheit und Geschwindigkeit des Datenzugriffs werden entscheidende Auswahlkriterien sein. Hinzu kommt der Virtualisierungsgrad - ein wesentlicher Hebel für mehr Effizienz.

Auch bei der Datenauswertung werden interne und externe Lösungen zum Einsatz kommen. Aus der Fülle der Angebote die passenden Lösungen auszuwählen ist allerdings eine echte Aufgabe. Vorreiter in der Assekuranz können Open-Source-Machine-Learning-Lösungen an ihren eigenen Daten lernen lassen und so eine auf die Eigenheiten ihrer Kunden optimierte KI-Datenauswertung entwickeln.

Klarer Fokus auf Datennutzung

Ihre internen Ressourcen sollten Unternehmen grundsätzlich auf die oberste Ebene ihrer Datenarchitektur konzentrieren - die Datennutzung. Sie müssen genau festlegen, welche Informationen zu welcher Zeit für welchen Mitarbeiter relevant sind. Danach sind diese Daten einfach handhabbar bereitzustellen. Die Effizienz steigt dabei in der Regel mit dem Automatisierungsgrad der Datenaufbereitung.

Data Scientists und KI-Spezialisten sind gefragt. Sie gewährleisten, dass die Mitarbeiter den größtmöglichen Nutzen aus den vorliegenden Daten ziehen. Denn unverändert gilt: Erst menschliches Know-how macht aus dem Rohstoff Daten wertvolle Informationen. Ohne gut ausgebildete und hoch motivierte Spezialisten wird aus der IT-Vision 2025 niemals Realität.