Ir directamente al contenido de la página Ir a la navegación principal ir a investigar

Puntos de vista de personalidades destacadas, dirigentes, investigadores y líderes de opinión sobre temas de actualidad o temas clave en materia de transformación digital y transición energética.

Uno de los grandes retos a los que se enfrentarán durante los próximos cinco años las empresas y organizaciones de todo tipo es la protección y la valorización de sus datos empresariales. A medio camino entre la nube pública y la nube privada, la solución “Hybrid Data Fabric” empieza a ganar terreno.

Los datos almacenados, hoy en día enriquecidos con informaciones y formatos diversos (texto, imagen, sonido, vídeo, fotos, etc.), presentan una complejidad cada vez mayor. Estos elementos complejos se hallan precisamente en el origen de la evolución del almacenamiento de datos.

Los datos que, en las décadas de 1980 y 1990, se almacenaban internamente en servidores de archivos ahora se guardan en almacenes de datos de data centers; es decir, en nubes privadas, públicas o híbridas. Esta dispersión de almacenamiento debilita a las empresas y las obliga a jerarquizar sus datos en forma de data fabric (o entramado de datos) para optimizar sus costes y valorizar sus usos.

El gran desafío actual es, más que nunca, la gestión del creciente volumen de datos, así como su explotación, para lo cual las empresas se enfrentan a la necesidad imperiosa de convertirse en data driven (o empresas impulsadas por los datos). En otras palabras, sacar las conclusiones de una constatación generalizada: los datos de una empresa permiten gestionar, pero sobre todo transformar un negocio.

«Utilizar la nube pública como herramienta de conexión masiva y la nube privada para proteger los datos sensibles».

¿Pero cómo podemos poner en valor nuestros datos sin dejar que otras empresas lo hagan en nuestro lugar y arriesgarnos a que ellas moneticen nuestro conocimiento más rápido de lo que lo haríamos nosotros? El ejemplo, entre otros, de los GAFAM nos demuestra el gran riesgo de vernos desposeídos de nuestros datos e incluso de nuestro propio negocio.

Recuperar el control

Para llevar a cabo la reapropiación de los datos propios es esencial entender cómo circulan en los procesos de negocio, lo que implica saber de dónde vienen y cómo “limpiarlos”, enriquecerlos y valorizarlos para reintroducirlos a continuación en las aplicaciones empresariales. Este replanteamiento de todo el proceso de gestión de datos se denomina data pipeline o segmentación.

Para visualizar el procedimiento, podemos tomar como ejemplo una empresa que decide dedicarse a la venta a distancia. Para que su aplicación móvil de comercio electrónico sea eficiente, deberá consolidar en primer lugar todos los datos de almacenamiento, de compra por parte de los clientes, de promociones… Hoy en día este procedimiento puede realizarse fácilmente gracias a los data warehouses, que son auténticos almacenes de datos.

La segunda fase consistirá en enriquecer estos datos mediante una segmentación, estableciendo categorías y subcategorías que permiten al cliente clasificar la información más fácilmente (ropa, cosmética, electrodomésticos). Este trabajo también permitirá gestionar con mayor precisión el historial del cliente.

Lo que conduce naturalmente a la tercera fase: la optimización de la recomendación comercial al cliente gracias a la inteligencia artificial.

Imaginemos que los datos nos han permitido identificar que, en los últimos tres años, un cliente ha comprado dos veces material de esquí para su hijo en la época de la Feria del Vino. Sin duda, la empresa tendrá un gran interés en recomendar promociones de material de esquí, de la talla adecuada, para niño.

Cuando se usa oportunamente la concordancia de compra, puede generar un aumento de entre el 2 y el 4% de la cesta de la compra media.

Todo este proceso y el flujo de operaciones de los datos data pipeline tienen también la ventaja de permitir una mejora continua de los servicios. Cuando se multiplican los retrasos en las entregas o las devoluciones de artículos defectuosos, un análisis detallado de los datos mediante un algoritmo permite saber si el motivo es que el paquete no se ha entregado en el interior del edificio o si se debe a un producto o proveedor en concreto.

Nube: lo mejor de ambos mundos

Pero para mantener el control de los datos y valorizarlos completamente, hay que almacenarlos en un sitio adecuado. Algunos optan por una solución interna mediante una nube privada y data centers propios. Si bien la seguridad de los datos está totalmente garantizada, este modelo, estático y a menudo tecnológicamente desfasado, limita las posibilidades de desarrollo.

Otros se decantan por plataformas up-to-date de proveedores que alojan datos en la nube pública. En este caso, el riesgo en términos de confidencialidad y los altos costes inherentes a los flujos entrantes y salientes están lejos de ser insignificantes (e incluso exponenciales).

Existe una tercera vía: la solución híbrida. Consiste en usar la nube pública como herramienta de movilidad (IoT/Edge), que ofrece una enorme potencia de conexión y de escalabilidad. Asociada a una nube privada, operada internamente o mediante un proveedor externo, permite proteger los datos sensibles de la empresa relativos a las aplicaciones de negocio. La solución hybrid data fabric optimiza el almacenamiento, garantiza la seguridad de los datos y se convierte en la base de la data pipeline.

La HDF (hybrid data fabric) libera energías para una mejor comprensión e innovación a partir de los datos.

 

20/01/2022

Por Yves Pellemans, CTO Axians Francia

Para saber más