AssCompact suche
Home
Software
18. Juli 2020
Daten aus 140 Jahren digital und in Echtzeit abrufbar

Daten aus 140 Jahren digital und in Echtzeit abrufbar

Die Munich Re baut ihren Data Lake aus. Der Rückversicherer sammelt seine angehäuften Risikoinformationen an zentraler Stelle und verknüpft sie mit weiteren Daten in einem sogenannten Data Lake. Wie dessen Anbindung an Data Pipelines funktioniert, erläutert Andreas Gillhuber von der Alexander Thamm GmbH.

Als einer der führenden Anbieter von Rückversicherung weltweit übernimmt Munich Re Teile des Risikos von Erstversicherern und berät sie im Versicherungsgeschäft. Im Laufe der 140-jährigen Unternehmensgeschichte hat Munich Re eine enorme Menge an Daten generiert. Dazu gehören unter anderem Daten aus den Bereichen Naturkatastrophen, Klima, Immobilien und Medizin, aber auch Informationen zu Cybercrime. Die Zielsetzung des Data-Lake war es, diese Informationen zu nutzen, um Risiken besser zu verstehen, und überdies neue analytische oder datengetriebene Services für Erstversicherer anbieten zu können. Dafür mussten die Daten an einer zentralen Stelle gesammelt und Datenquellen angebunden werden. „Wir verfügen über einen einzigartigen Risikodatenschatz. Um diesen zu heben, haben wir unsere bislang dezentral gehaltenen Daten in einen Data Lake migriert“, erklärt Andreas Kohlmaier, Head of Data Engineering bei Munich Re.

Was ist ein Data Lake?

Ein Data Lake ist ein sehr großer Datenspeicher, der sich dadurch auszeichnet, dass er Daten in ihrem ursprünglichen Rohformat beinhaltet. Er speichert Daten aus unterschiedlichsten Quellen, unabhängig davon ob es sich dabei um Texte, Zahlen, Bilder oder Videos handelt. Die Inhalte bezieht der Data Lake über Data Pipelines. Um diese zu entwickeln und zu betreiben, hat Munich Re mit der Alexander Thamm GmbH, einer der führenden Data Science und KI-Beratungen Deutschlands, zusammengearbeitet.

Data Engineers entwickeln und betreiben Data Pipelines

Für die Umsetzung stellte Andreas Kohlmeier ein zehnköpfiges Team aus eigenen Experten, sowie Spezialisten der Alexander Thamm GmbH zusammen. Die Data Engineers kümmern sich um die Entwicklung der Data Pipelines, mit deren Hilfe Daten übertragen und transformiert werden können.

Was ist eine Data Pipeline?

Eine Data Pipeline stellt die Verbindung vom Quellsystem, wo die Daten ursprünglich liegen, zum zentralen Data Lake her. Sie extrahiert die Daten aus verschiedenen Systemen, prüft deren Qualität, bereinigt, transformiert und legt sie im Data Lake ab. So wird der Zeitaufwand bei der Exploration, Aufbereitung und Zusammenfassung von Daten enorm reduziert und übergreifende Datenanalysen werden überhaupt erst ermöglicht.

Datenpipelines können dabei sehr unterschiedlich ausgestaltet sein – ihr Potenzial reicht vom relativ simplen Übertragen strukturierter Versicherungsdaten bis hin zur KI-gestützten Aufbereitung von Satellitendaten. „Künstliche Intelligenz spielt schon heute eine wichtige Rolle im Data Management bei Munich Re und wird in den kommenden Jahren weiter an Bedeutung gewinnen“, erklärt Kohlmaier.

KI beim Einsatz von Data Management

Munich Re arbeitet deshalb intensiv am Thema KI für Data Management, dem sogenannten Augmented Data Management. Ein konkreter, KI-gestützter Anwendungsfall bei Munich Re ist der Aufbau versicherungsspezifischer Datenpools für Kunden. Die KI von Munich Re hat dabei aus zigtausenden von verschiedenen Excel-Sheets gelernt, die richtigen Informationen zu extrahieren und in ein einheitliches Zielformat zu überführen. „Dieser Datenpool hat wesentlich mehr Wissen als ein einzelner Versicherer je aufbauen könnte. Munich Re bietet eigene Daten, die Technologie und das Versicherungs-Know-how und kann so Pools für Kunden bauen“ ergänzt Kohlmaier.

Standardisierung und Professionalisierung der Data Operations

In der Vergangenheit wurden alle Data Pipelines individuell programmiert. Ziel ist es nun bis Ende nächsten Jahres bis zu 100 neue Pipelines zu bauen. Die Alexander Thamm GmbH wurde gebeten, ein Konzept zu entwickeln, um die Pipeline-Entwicklung zu standardisieren, inklusive DevOps und effiziente Analytics Operations. Damit eine weitere Skalierung möglich ist und die Kosten nicht explodieren, müssen geeignete Prozesse und Methoden etabliert werden. Durch die Standardisierung und anschließende Automatisierung können Kosten reduziert werden – Stichwort: Economies of Scale.

Digitalisierung weiter voranbringen

„Wir sind dem Ziel, unseren Mitarbeitern die richtigen Daten so effizient wie möglich zur Verfügung zu stellen, einen großen Schritt näher gekommen“, schildert Kohlmaier. Munich Re ist im Prozess der Digitalisierung durch die neuen Services bereits weit vorangeschritten und damit in der Versicherungsbranche ein Vorreiter. Die Möglichkeiten des KI-gestützten Data Managements, der effiziente Aufbau weiterer Data Pipelines und die Professionalisierung der Data Operations sind nur der Beginn des Wegs zur weiteren Skalierung der vielfältigen, neuen digitalen Services.

Bild: © Alexander Thamm GmbH