Bæredygtighed i digital produktion
Hvordan den globale leder inden for rustfrit stål, Outokumpu, arbejdede sammen med Microsoft om at forbedre sine produktionsprocesser med teknologi.
Daniel Aunvig
Head of Data & AI
Denne klumme er et debatindlæg skrevet af Daniel Aunvig, Head of Data & AI, og Niels Grønning, Senior Data & AI specialist, bragt i Computerworld 7. maj 2021
Cloud-baseret kunstig intelligens (AI) er farligt, usikkert og kræver mindst en Ph.d. i statistik at komme i gang med.
Myterne er mange. I vores arbejde med data og AI støder vi på flere udsagn, der ofte er baseret på en unuanceret fremstilling af mulighederne og begrænsningerne ved kunstig intelligens.
Vi konfronteres med myter om teknologien, der for længst er fortid i en hastigt udviklende branche.
”AI er ekstremt dyrt, tidskrævende og forbeholdt de få”. Sådan lyder blot nogle af fortællingerne. Og sådan var det måske også engang.
Men i dag er kunstig intelligens integreret i vores hverdag. Og for især for den yngre generation er det blevet en accepteret del af den daglige interaktion med digitale værktøjer. Derfor vil vi gerne punktere nogle af de myter, som stadig lever i den danske it-branche.
AI har sine rødder i computervidenskab samt statistik, hvor opbygningen af algoritmer, der kan forudse og kontinuerligt lære af ny data, gradvist har fundet en generel anvendelse på tværs af industrier og forretningsområder.
Tidligere krævede det stærke kompetencer inden for statistik og var i høj grad begrænset af et mangelfuldt data- og beregningsgrundlag.
Der var groft sagt hverken regnekraft eller data nok til at kunne træne modeller.
Et eksempel på en model, det tidligere ikke ville være muligt at udvikle, er OpenAI’s GPT 3 natural language processing (NLP) model, hvor der er anvendt 175.000.000.000 parametre til at træne modellen.
Udviklingen inden for cloud og den eksponentielle datavækst har haft en afledt effekt i den generelle tilgængelighed af AI modeller i forretningsapplikationer og services.
I dag behøver slutbrugere ikke besidde en dybere matematisk forståelse for at kunne anvende komplekse AI-modeller i deres forretningsprocesser.
Dermed er den umiddelbare barriere for at komme i gang gradvist blevet mindsket.
Mange virksomheder vil opleve, at det blot kræver den rette grad af nysgerrighed samt et solidt samarbejde mellem forretning og IT (Data Engineering, Data Ops og Data Science) at komme i gang med AI.
Adgangen til skalerbar cloud-infrastruktur har muliggjort udviklingen af avancerede algoritmer, trænet på store datasæt.
Hvad der tidligere krævede store investeringer i egen it-infrastruktur kan nu afvikles i skyen, med lavere omkostninger på hardware og services, der kontinuerligt fornyes.
Nogle virksomheder har dog stadig betænkeligheder ved analytics i clouden, hvilket for mange primært omhandler tredjeparts databehandling.
Øget lovgivning og voksende fokus på sikkerhed og compliance har sikret en gradvis modning af cloud-processer og teknologi, som gør det sikkert at anvende analytics i clouden.
Når det handler om sikkerhed, vil vi gerne stille et retorisk spørgsmål: Hvor er det mest sikkert at opbevare data? På en server i kælderen eller i et public cloud datacenter, hvor der investeres millioner af dollars i digital og fysisk sikkerhed?
Der er ekstrem meget fokus på integritet, sikkerhed og transparens i public cloud – for ikke at tale om global bevågenhed 24/7 – så måske føles det mere sikkert at have data on premise, men i praksis er det yderst tvivlsomt, at det er mere sikkert.
Der er de senere år sket en radikal transformation i forhold til de værktøjer og services, der nu er tilgængelige inden for avanceret dataanalyse og AI.
Hvor virksomheder tidligere var nødsaget til at bygge det hele fra bunden i en myriade af open source-værktøjer, er mange AI-algoritmer i dag enten inkluderet i eksisterende forretningsapplikationer eller udstillet via åbne API’er gennem cloud-services.
Virksomheder skal ikke længere kode billede-genkendelsesalgoritmer, men kan nu via produktivitetsplatforme eller cloud services hurtigt tilgå og udnytte modeller, der allerede er trænet til en given use case.
Det har markant sænket pris- og kompetencebarrierer, der tidligere afholdt mange fra at komme i gang med AI.
De lavere omkostninger og reduktionen i tid fra ide til implementering har haft en positiv effekt på den tidligere flaskehals, mange virksomheder oplevede i forhold til pris og kompetencer inden for AI. Der var engang, hvor du skulle købe infrastruktur, købe servere og købe software – og i øvrigt vedligeholde det hele selv.
Det krævede en rigtig stor kapitalinvestering. Men i dag kan du komme i gang med et projekt inden for analyse og AI for cirka 3.000 kr. om måneden
Myte nummer fire, vi gerne vil afmontere, er, at adgang til teknologi er det vigtigste element i en datadreven virksomhed.
Sådan forholder det sig ikke. Teknologien skal selvfølgelig være til rådighed, men hvis organisationerne virkelig vil skalere, får de brug for de nødvendige kompetencer.
Med andre ord, det er kvalifikationerne i virksomheden, som afgør, hvilken værdi data for alvor skaber.
Den transformation, som kunstig intelligens længe har været associeret med, kan ofte blive sammenstillet med den generelle gevinstrealisering, som analytics kan bringe til i virksomheder.
Der kan dog være stor forskel på, hvor man starter sin analytiske rejse.
Og vigtigheden i at anskue problemstillingen, før man låser sig fast på løsningen, er desværre en evne mange overser.
Adgang til et simpelt dashboard med et søjlediagram kan vise sig mere værdiskabende end en kompliceret algoritme.
Afvejningen mellem problemstilling, værktøj samt datagrundlag bør danne grundlag for de første overvejelser, da mange ofte baserer deres løsningsmodel på et utilstrækkeligt datafundament.
Kunstig intelligens er en effektiv teknik, men bør ses i lyset af de mange løsningsmuligheder samt datasæt, som står til rådighed.
Algoritmer kan være superavancerede, men de er aldrig bedre end det datagrundlag, de er udviklet på.
Derfor er arbejdet med tilrettelæggelse og kvalitetssikring af data altafgørende i forhold udviklingen af kvalitetsmodeller, som med høj nøjagtig kan give svar på komplekse problemstillinger.