Gå direkt till sidans innehåll Gå till huvudnavigeringen Gå till forskning

VIPs, forskare, ledare inom näringslivet och opinionsbildare delger tankar kring nyheter och nyckelfrågor inom den digitala omvandlingen och energiövergången.

Det finns många hinder för genomförandet av stora AI-projekt; inklusive obeprövad multi-cloud-arkitektur, svårigheter att sätta AI-lösningar i produktion och rädsla för att inte kunna garantera efterlevnad av regler för datahantering och datasäkerhet 

Vi har alla hört talas om begrepp som decision support, predictive analytics, data visualisation och trend analysis, reporting, intelligent sökmotor etc. Dessa är alla exempel på uppgifter som kan utföras av olika program förutsatt att de har kapacitet att använda kvalitetsdata på en industriell skala. Även om Data warehouses, data lakes, HPC, Business Intelligence, big data och AI har funnits i flera år, är det nya som tillkommit dels en enorm ökning av datamängden från internet och IoT och dels behovet av att kunna konsolidera och visualisera data i realtid och att industrialisera AI-projekt. Om man inte tar till sig av denna tekniska utveckling kommer företagen att få svårt att vara innovativa. 

Strukturerade eller ostrukturerade data, varför ska man konsolidera dem? 

Även om affärsdata som lagras i databaser centraliseras i data warehouses sedan tjugo år tillbaka har Internet och IoT gjort denna centralisering mer komplex då det skett en exponentiell tillväxt av ostrukturerad data de senaste åren. 

Det ligger inte bara i volymen och mångfalden av data utan också i realtidskaraktären för dessa operationer. Data som samlas in från internet (loggar, foton, videor, ljud, databaser, uppkopplade produkter), IoT-data (rörliga eller fasta enheter) och Edge Computing (data som samlas in på exempelvis produktionsanläggningar) lagras ostrukturerade i data lakes. Efter bearbetning i BI- eller Big Data-verktyg levererar de information som möjliggör prediktiv analys, att dra beteendeinriktade slutsatser, upptäcka trender etc. 

Skillnaden mellan insamling och konsolidering igår och idag är hur snabbt dessa operationer genomförs. Där dessa tidigare gjordes kvartalsvis eller månadsvis genomförs de nu nästan i realtid. En reaktivitet som revolutionerar applikationerna och ger dem många nya fördelar. Ta till exempel den omedelbara visualiseringen på ett bankkonto av ett uttag som görs från en bankomat eller möjligheten för ett företag att få ett varningsmeddelande i realtid vid ett fel på en produktionslinje. 

Ingen artificiell intelligens utan kvalitativa data 

För att kunna leverera relevant och begriplig information som ger ett mervärde måste uppgifterna vara av hög kvalitet, kontextualiserade och förbättrade. Genom att korsa och utforska alla typer av data upptäcker Big Data- och BI-verktyg sålunda orsakssamband som inte är uppenbara och som visar på kopplingar mellan olika skilda händelser. 

I detaljhandeln till exempel kan man med dessa verktyg utföra en analys av köphistoriken som gör det möjligt att tolka konsumentvanor (köptillfällen, värden, typ av varor, köpkanal etc.), urskilja trender och göra förutsägelser om köp. 

När det gäller vetenskaplig forskning som kräver komplexa beräkningar och massiv databehandling i realtid använder företagen HPC, High Performance Computing. HPC används bland annat på hälsoområdet inom genforskningen och inom läkemedelsindustrin vid produktion av läkemedel. 

Idag ligger utmaningen för företagen sålunda i deras förmåga att kunna införliva och utveckla dessa verktyg som är nödvändiga för att de ska kunna få fram intelligent och begriplig information, och detta i realtid. 

AI, ett verktyg för framtidssyn  

Idag har företagen förstått vikten av AI i automatiseringen av en rad processer och i produktionen av relevant information. Men de använder ofta denna teknik sparsamt genom POC (koncepttester). Förutsägelser om fel i produktionslinjen, förslag på spontanköp eller förbättring av förfrågningar via en sökmotor är exempel på olika typer av projekt som lanseras men som håller sig inom begränsade områden. Faktum är att alla företag ännu inte har insett den fulla betydelsen av att gå över till industrialisering av AI-lösningar vid genomförandet av stora och verkligt innovativa projekt i sina verksamheter. 

Majoriteten av franska chefer inser idag att de måste satsa på AI för att uppnå sina tillväxtmål, men de flesta är rädda för att använda AI i stor skala. Denna oro beror på deras svårigheter att överblicka utvecklingen av massiv AI på multicloud-arkitekturer. Så länge man har ett typiskt POC-projekt som begränsas till ett användningsfall inom ett begränsat område är det enkelt och riskfritt att införa AI. Men så fort man börjar använda tusentals data och många funktioner utspridda i olika moln måste projekten ta hänsyn till en rad aspekter vad gäller lagstiftning, reglering, spårbarhet och säkerhet. De måste därför integreras i en säker, transparent och granskningsbar produktionsprocess. Av rädsla för att inte uppfylla alla dessa krav stannar majoriteten av företagen på POC-stadiet. 

För att hjälpa företagen i deras process med industrialisering av Analytics-processer (Data Lake, Data Warehouse, BI, Big Data, HPC, AI) och med hanteringen av deras data rekommenderar jag att man använder tekniska byggstenar som är separerade från offentliga molntjänster och införlivar dessa i en DevOps/CloudOps-process för att påskynda genomförandet av dessa projekt. 

15/10/2020

Yves Pellemans, CTO Axians Cloud Builder

Upptäck mer