Ir directamente al contenido de la página Ir a la navegación principal ir a investigar

Puntos de vista de personalidades destacadas, dirigentes, investigadores y líderes de opinión sobre temas de actualidad o temas clave en materia de transformación digital y transición energética.

La falta de madurez de las arquitecturas multicloud, la dificultad de industrializar soluciones de IA, el miedo a no poder garantizar la conformidad con la normativa sobre gestión de datos y su seguridad… Todas estas cuestiones frenan el despliegue de grandes proyectos de inteligencia artificial. 

Todos hemos oído hablar de ayuda en la toma de decisiones, de análisis predictivo, de visualización de datos y de tendencias, de reporting, de motor de búsqueda inteligente… Todas ellas tareas ejecutables con aplicaciones, ya que tienen la capacidad de aprovechar datos de calidad y de forma industrial. El almacén de datos, el data lake o lago de datos, la HPC, la inteligencia empresarial, el big data y la IA llevan años funcionando, pero la novedad reside en el enorme volumen de datos surgidos de Internet y del IoT (Internet de las Cosas), en la capacidad de consolidar y visualizar los datos en tiempo real y de industrializar los proyectos de IA. Sin la adopción de estos avances tecnológicos, las empresas van a tener muchas dificultades para ser innovadoras.

Datos estructurados o no estructurados: ¿por qué consolidarlos?

Desde hace dos décadas, los datos empresariales almacenados en bases de datos están centralizados en almacenes de datos, pero Internet y el Internet de las cosas han aumentado la complejidad de esa centralización debido al crecimiento exponencial de los datos no estructurados.

La novedad no solo se debe al volumen y la diversidad de los datos, sino también al hecho de que se trata de operaciones en tiempo real. Esos datos no estructurados, tanto si proceden de Internet (inicios de sesión, fotos, vídeos, sonidos, bases de datos, objetos conectados) como del IoT (datos obtenidos de objetos unitarios en movimiento o estáticos) o del edge computing (datos obtenidos en plantas de producción, por ejemplo), se almacenan en lagos de datos. Se procesan mediante herramientas de inteligencia empresarial (BI) o big data, y proporcionan información que permite realizar análisis predictivos, obtener información sobre comportamientos, revelar tendencias, etc.

La diferencia entre la recopilación del pasado y la consolidación actual es la rapidez de ejecución de esas operaciones. Si antes se realizaban con una frecuencia trimestral o mensual, ahora se llevan a cabo casi en tiempo real. Esa capacidad de reacción está revolucionando las aplicaciones y ofrece muchos beneficios. Pensemos, por ejemplo, en la visualización instantánea de una retirada de efectivo de una cuenta bancaria que se realiza desde cualquier cajero automático, o la posibilidad de que una empresa reciba una alerta en tiempo real si se produce un fallo en una cadena de producción.

No hay inteligencia artificial sin datos cualitativos

Para que puedan proporcionar información pertinente, comprensible y con valor añadido, los datos deben ser de calidad, contextualizados y enriquecidos. Cruzando y explorando todo tipo de datos, las herramientas de big data y de BI revelan relaciones de causa-efecto que no son evidentes y que ponen de relieve conexiones entre hechos distintos.

Por ejemplo, en el comercio minorista, estas herramientas analizan el historial de compras, permitiendo así conocer las prácticas de los consumidores (momentos de las compras, valores, tipo de artículos, canal de compra, etc.), deducir tendencias y hacer predicciones de compras.

Las investigaciones científicas, por su parte, requieren cálculos complejos y tratamientos de datos masivos en tiempo real, y para ello las empresas utilizan la HPC o computación de alto rendimiento. Es el caso de la atención sanitaria, con las investigaciones sobre el genoma, o de la industria farmacéutica, con la producción de medicamentos.

Actualmente, el reto de las empresas está en su capacidad de integrar y desplegar esas herramientas, sin las cuales no pueden obtener datos inteligentes, inteligibles y en tiempo real.

La IA al servicio de la predicción

Hoy en día las empresas conocen bien la importancia de la IA en la automatización de algunos procesos y en la producción de información pertinente. No obstante, a menudo solo utilizan esta tecnología de forma parcial, a través de pruebas de concepto (PoC). Predicciones de averías en cadenas de producción, recomendaciones de compras de circunstancias o enriquecimiento de las peticiones a través de un motor de búsqueda…, los proyectos que se lanzan son muy variados, pero se circunscriben a áreas restringidas. Y es que no todas las empresas han calibrado toda la importancia de pasar a la industrialización de la IA para desplegar proyectos de envergadura  realmente innovadores para sus negocios.

Actualmente, la mayoría de los directivos franceses consideran que deben apostar por la IA para lograr sus objetivos de crecimiento, pero la mayor parte de ellos temen desplegar una IA a gran escala. Esta inquietud se debe a la dificultad de comprender el despliegue de una IA masiva en arquitecturas informáticas multicloud. Al limitarse a un uso concreto en un área reducida, el despliegue de la IA en un proyecto tipo PoC resulta fácil y no presenta riesgos. Pero cuando utilizan miles de datos y numerosas funcionalidades dispersas en las nubes, los proyectos deben tener en cuenta aspectos legislativos, normativos, de trazabilidad y de seguridad. Deben incorporarse en un proceso de producción seguro, transparente y susceptible de ser auditado. Por temor a no cumplir con todas estas exigencias, la mayoría de las empresas se quedan en la fase de la PoC.

Para ayudarlas en sus estrategias de industrialización de análisis de procesos (lago de datos, almacén de datos, BI, big data, HPC, IA) y de control de sus datos, aconsejo utilizar bloques tecnológicos disociados de las ofertas de nube pública e incorporarlos en un proceso DevOps / CloudOps para acelerar su despliegue.

15/10/2020

Yves Pellemans, director de tecnología (CTO) de Axians Cloud Builder

Para saber más