Gehen Sie direkt zum Inhalt der Seite Gehen Sie zur Hauptnavigation Gehen Sie zur Forschung

Standpunkte von Persönlichkeiten, Topmanagern, Forschern, Meinungsführern zu einem aktuellen oder strukturgebenden Thema in Bezug auf digitale Transformation und Energiewende.

Eine der großen Herausforderungen, vor denen Unternehmen und andere Organisationen in den kommenden fünf Jahren stehen, ist die Sicherung und Nutzung ihrer Geschäftsdaten. Hier setzen sich zunehmend „Hybrid Data Fabric“-Lösungen als Kombination aus öffentlicher und privater Cloud durch.

Gespeicherte Daten liegen in immer zahlreicheren Formaten und Inhalten vor (Texte, Bilder, Töne, Videos, Fotos usw.) und werden zunehmend komplexer. Diese Komplexität löst ihrerseits die Weiterentwicklung der Speichertechnik aus.

Daten, die in den 1980-er und 1990-er Jahren noch intern auf Dateiservern abgelegt wurden, werden heute in Rechenzentren, öffentlichen, privaten oder Hybridclouds gespeichert. Diese fragmentierte Speicherung macht Unternehmen angreifbarer und zwingt sie aus Gründen der Kosten- und Nutzungsoptimierung zur Datenhierarchisierung in Form einer „Data Fabric“.

Die große Herausforderung besteht heute mehr denn je darin, die wachsenden Datenmengen und deren Nutzung zu managen. Dazu müssen die Unternehmen zu „datengetriebenen“ Firmen werden. Anders gesagt müssen sie die Konsequenzen aus einer Feststellung ziehen, bei der heute Einigkeit herrscht: Daten dienen zum Management eines Unternehmens, aber vor allem zur Transformation seines Geschäfts.

„Die öffentliche Cloud wird als Konnektivitätstool eingesetzt, die private Cloud zur sicheren Speicherung vertraulicher Daten.”

Wie können also die eigenen Daten gewinnbringend genutzt werden, ohne dass die Mitbewerber davon profitieren und das eigene Know-how schneller zu Geld machen? Das Beispiel der amerikanischen Internetkonzerne hat gezeigt, wie rasch man Gefahr läuft, seine Daten und somit sein Geschäft aus der Hand zu geben.

Wieder Herr im eigenen Hause

Um sich seine Daten zurückzuholen, muss man verstehen, wie diese in den verschiedenen Geschäftsprozessen genutzt und ausgetauscht werden. Dazu muss man wissen, wo sie herkommen, wie sie aufbereitet werden, wie sie ergänzt und angereichert und dann wieder in die Geschäftsprozesse zurückgespeist werden können. Der gesamte Datenmanagementprozess, die so genannte „Datenpipeline“, muss also auf den Prüfstand.

Lassen Sie uns dies am Beispiel eines Unternehmens verdeutlichen, dass in den Onlinehandel einsteigen möchte. Damit seine mobile E-Commerce-Anwendung effizient funktioniert, müssen zunächst die Daten zu Lagerbestand, Kund:innen, Sonderangeboten usw. konsolidiert werden. Mit den heutigen Data Warehouses geht das recht einfach.

In einem zweiten Schritt müssen diese Daten durch eine Segmentierung angereichert werden. Es werden Kategorien und Unterkategorien angelegt, so dass die Kund:innen die Informationen leichter sortieren können (Kleidung, Kosmetik, Elektrogeräte). Das ermöglicht zudem eine genauere Verfolgung der Kundenhistorie.

Daraus ergibt sich bereits der dritte Schritt: die Optimierung der Kaufempfehlungen durch die KI.

Stellen wir uns einmal vor, dass wir anhand der Daten festgestellt haben, dass ein Kunde in den letzten drei Jahren zweimal Skiausrüstung für seinen Sohn gekauft hat, und zwar immer im Herbst. Das Unternehmen hat also sicherlich ein Interesse daran, diesen Kunden zum entsprechenden Termin auf Sonderangebote bei Skiausrüstung für Jungen in der richtigen Größe hinzuweisen.

Wenn ein solcher Datenabgleich richtig eingesetzt wird, kann er zu einer Vergrößerung des durchschnittlichen Warenkorbs um 2 bis 4 % führen.

Der gesamte Prozess und der Datenfluss in der „Datapipeline“ ermöglichen zudem eine stetige Verbesserung der Kundenservices. Wenn es zu gehäuften Lieferverzögerungen und Warenrücksendungen kommt, kann ein Algorithmus durch die genaue Datenanalyse herausfinden, ob das damit zusammenhängt, dass der Paketbote die Pakete vor der Haustür abstellt, anstatt sie persönlich abzugeben, oder ob das Problem gehäuft bei einem Produkt oder Lieferanten auftritt.

Cloud: Das Beste aus zwei Welten

Aber um die Oberhand über die eigenen Daten zu behalten und sie voll nutzen zu können, müssen sie auch am richtigen Ort abgelegt werden. Manche entscheiden sich für eine interne Lösung mit einer privaten Cloud oder eigenen Rechenzentren. Die Datensicherheit ist so wahrscheinlich gewährleistet, aber dieses Modell ist unflexibel und technisch schnell veraltet. Das begrenzt die Weiterentwicklungsmöglichkeiten.

Andere wiederum nutzen topmoderne Plattformen professioneller Provider, welche die Daten in öffentlichen Clouds hosten. Hier stellt sich die Frage der Vertraulichkeit; außerdem entstehen hohe, ja sogar exponentielle Kosten für die ein- und ausgehenden Datenströme.

Es gibt einen dritten Weg: die Hybrid-Lösung. Dabei wird eine öffentliche Cloud als Mobilitätstool eingesetzt (IoT/Edge), denn sie gewährleistet eine umfassende Konnektivität und ist massiv skalierbar. Im Zusammenspiel mit einer privaten, intern oder von einem Dienstleister betriebenen Cloud können sensible Geschäftsdaten dann absolut vertraulich verarbeitet und gespeichert werden. Das bezeichne ich als „Hybrid Data Fabric“-Architektur. Sie optimiert die Speicherung, garantiert die Datensicherheit und wird zum Fundament ihrer Datenpipeline.

Die HDF (Hybrid Data Fabric) setzt Energien frei, um ihre Daten besser zu analysieren und innovativ zu nutzen.

 

20/01/2022

Von Yves Pellemans, CTO Axians France

Mehr erfahren