Vá diretamente para o conteúdo da página Ir para a navegação principal Ir para a pesquisa

O ponto de vista de personalidades, dirigentes, pesquisadores, líderes de opinião sobre um tema de atualidade ou um tema estruturante para a transformação digital e a transição energética.

A falta de maturidade das arquiteturas multicloud, a dificuldade em industrializar soluções de IA, o receio de não poder garantir o cumprimento dos regulamentos relativos à gestão e segurança dos dados… eis os empecilhos ao desenvolvimento de grandes projetos de Inteligência artificial.

Ouvimos falar de apoio à decisão, de análise preditiva, de visualização dos dados e das tendências, de reporting, de motores de busca inteligentes, etc. São tarefas que podem todas ser executadas por aplicativos desde que esses tenham a capacidade de explorar dados de qualidade e à escala industrial. O Data Warehouse, o Data Lake, o HPC, a Business Intelligence, o Big Data e a IA existem há anos já, mas a novidade está no enorme volume de dados oriundos da Internet e da IoT, na capacidade de consolidar e visualizar dados em tempo real e de industrializar projetos de IA. Sem a adoção destas evoluções tecnológicas, será muito difícil para as empresas inovarem.

Dados estruturados ou não estruturados, por que consolidá-los? 

Embora os dados empresariais armazenados em bases de dados tenham sido centralizados em Data Warehouses nos últimos vinte anos, a Internet e a IoT tornaram esta centralização mais complexa com um crescimento exponencial de dados não estruturados.

A novidade reside não apenas no volume e na diversidade dos dados, mas também no fato que estas operações ocorrem em tempo real. Oriundos da Internet (registros, fotos, vídeos, sons, bases de dados, objetos conectados), da IoT (dados coletados em objetos unitários em movimento ou estáticos) ou do Edge Computing (dados coletados em locais de produção, por exemplo), estes dados não estruturados são armazenados em Data Lakes. Quando processados por ferramentas de BI ou Big Data, fornecem informações que permitem fazer análises preditivas, aprender sobre os comportamentos, revelar tendências, etc.

A diferença entre a coleta e a consolidação de ontem e as de hoje reside na rapidez de execução destas operações. Ontem, eram feitas trimestral ou mensalmente; hoje, são feitas quase em tempo real. Esta reatividade revoluciona as aplicações, trazendo inúmeros benefícios. Por exemplo, a visualização instantânea na conta bancária de um saque de dinheiro em qualquer caixa automático ou a possibilidade para uma empresa de ser alertada em tempo real de uma avaria em uma linha de produção.

Sem dados qualitativos, nada de Inteligência Artificial 

Para fornecer informações relevantes, compreensíveis e com um valor agregado, os dados devem ser de qualidade, contextualizados e enriquecidos. Assim, ao cruzar e explorar todos os tipos de dados, as ferramentas de Big Data e de BI revelam relações causais que não são óbvias e realçam os nexos entre eventos distintos.

No segmento do varejo, por exemplo, ao analisar o histórico de compras, estas ferramentas permitem compreender as práticas dos consumidores (momentos de compra, valores, tipo de artigos, canal de compra, etc.), deduzir tendências e fazer previsões de compras.

Como as pesquisas científicas requerem cálculos complexos e um processamento de dados massivos em tempo real, as empresas utilizam o HPC ou High Performance Computing. É o caso, em particular, no setor da saúde com as pesquisas sobre o genoma ou na indústria farmacêutica com a produção de medicamentos.

Hoje em dia, o grande desafio para as empresas é serem capazes de integrar e implementar estas ferramentas sem as quais não podem extrair informações inteligentes, inteligíveis e em tempo real.

A IA ao serviço da previsão

As empresas entendem hoje perfeitamente a importância da IA na automatização de uma série de processos e na produção de informações relevantes. Contudo, elas ainda utilizam esta tecnologia com parcimônia através do POC (prova de conceito). Previsões de avarias nas linhas de produção, recomendações para compras circunstanciais ou enriquecimento de pedidos através de um motor de busca, os projetos lançados são diversos mas de âmbito limitado. De fato, nem todas as empresas se deram conta da importância de avançar para a industrialização da IA a fim de implantar projetos de grande porte e realmente inovadores para suas linhas de negócio.

A maioria dos empresários franceses acredita que deve apostar na IA para atingir suas metas de crescimento, mas muitos temem a implantação em grande escala da IA. Esta preocupação deriva da dificuldade que têm em compreender a implantação de uma IA maciça em arquiteturas informáticas multicloud. Se um projeto de tipo POC se limitar a um caso de utilização num âmbito reduzido, a implantação da IA é fácil e sem riscos. Mas a partir do momento em que utilizam milhares de dados e numerosas funcionalidades dispersas em nuvens, os projetos devem ter em conta as questões de legislação, regulamentação, rastreabilidade e segurança. Devem ser integrados em um processo de produção seguro, transparente e auditável. Por receio de não conseguir cumprir todos estes requisitos, a maioria das empresas permanece na fase de POC.

Assim, para ajudá-las no seu processo de industrialização dos processos analíticos (Datalake, DataWarehouse, BI, Big Data, HPC, IA) e de controle dos seus dados, aconselho a utilizar tijolos tecnológicos dissociados das ofertas de cloud público e a integrá-los num processo DevOps / CloudOps para agilizar suas implementações.

15/10/2020

Yves Pellemans, CTO Axians Cloud Builder

Descubra mais