Man kan se elementer af Big Data overalt. For os er det interessant, når transportvirksomheder ønsker dynamiske prismodeller, forsikringsselskaber beregner forsikringspræmier, elektricitetsselskaber ønsker at estimere sandsynligheden for, at du skifter el-leverandør (customer churn) eller medievirksomhederne ønsker en datastyret beslutningstagning. Hjemme i sofaen oplever vi også Big Data i praksis, når Netflix foreslår vores næste film, eller når Google leverer skræddersyede annoncer og Amazon-relaterede produkter.

Big Data er beskrivende for et sæt af metoder og værktøjer, der hjælper os med at analysere, visualisere og forstå store datasæt. I Norge samarbejder Knowit med flere af de vigtigste aktører inden for transport, bankvæsen, finanssektoren og medier i form af Big Data, prognoser og maskinel indlæring.

 

Et NSB i hård konkurrence ønsker optimal styring af prissætningen

Du har helt sikkert oplevet, hvordan flyselskaber opererer med dynamisk prissætning. For nylig oplevede vi, gennem et partnerskab med NSB, at dynamisk prissætning for togselskaberne faktisk er langt mere udfordrende end i flybranchen. Når du tager toget, kan du stå af undervejs i modsætning til, når du flyver. Derfor genererer prognosearbejdet meget store datamængder. Prognoser for alle afgange i en given tidshorisont betyder flere tusinde kombinationer af rejsestrækninger og helst hundreder af millioner af observationer.

Brugen af alle tilgængelige datakilder og godt prognosearbejde omkring kapacitetsberegninger og prissætning er den rigtige vej at gå," siger virksomhedsrådgiver Bjørn Inge Stalsberg fra NSB. "Vores ambition er at kunne prissætte rejser dynamisk og opnå en indtægtsstigning med samme materiel og indsats som i dag. En god prognose og algoritme til prisfastsættelse vil naturligvis være en betydelig konkurrencemæssig fordel.

- Vi havde allerede en lovende prototype, som vi, sammen med Knowit, har forædlet til at udvikle en algoritme, vi kan gå ind på markedet med. Foreløbig har vi teoretiske modeller, der ikke er blevet afprøvet i virkeligheden, men de data, vi har, indikerer et godt resultat. Prognosemodellen er nu langt mere præcis og gennemarbejdet, og giver en høj grad af nøjagtighed på de mest trafikerede strækninger. Vi kan også afspejle sæsonudsving og forskellige købsmønstre.

Algoritmen, som Knowit har udviklet, er et så spændende teknologisk og innovativt arbejde, at Amazon ønsker at se på det som en mulig reference-case. Baseret på NSBs høje krav til både nøjagtighed og omfang har Knowit, med brugen af førende maskinindlæringsalgoritmer, leveret et meget grundigt stykke arbejde i forbindelse med prognoserne. Vi oplever risikoen, forbundet med investeringen, som lav i øjeblikket, og har nu planer om at lancere dynamisk prissætning i forhold til efterspørgslen på markedet i løbet af 2019, siger Stalsberg.

Algoritmen, Knowit har udviklet, er så spændende en teknologisk innovation, Amazon ønsker at bruge den som en reference-case.

Bjørn Inge Stalsberg, NSB

 

 

Kommerciel TV-kanal, tilpasset seernes nye brugermønstre

De fleste medievirksomheder prioriterer deres indsigtsarbejde og anvender både kvalitative og kvantitative metoder for at få indsigt fra interne og eksterne datakilder. Det var også tilfældet, da en af de første kommercielt finansierede TV-stationer i Norden samarbejdede med Knowit for at basere deres valg på datadrevne beslutninger. Mediekoncernen oplevede, at seerne bevægede sig væk fra lineært TV og over til "stream on demand". Reducerede indtægter og øgede risici i forbindelse med indholdsproduktion, der ikke passede til behovene hos seerne, udløste satsningen. Det meste af indholdet var hidtil udviklet ud fra erfaringer og mavefornemmelse, og derfor blev der taget flere beslutninger, baseret på fakta og reel kundeindsigt.

- Vi har sammensat et team med brancheerfaringer, data scientists og udviklere, der sammen genererede præcise problemstillinger, og derefter designede relevante algoritmer, siger Ingvar Larsson, CEO i Knowit Decision. - Efterhånden fik vores kunde dashboards, der løbende præsenterede hvad seerne så, og gennem hvilke kanaler, de gjorde det. Desuden har dashboardet eksponeret andre parametre, der kan lægges til grund for produktion af relevant indhold i et relevant format.

Det nordiske TV-selskab fik nu en oversigt og indsigt i, hvordan forholdet mellem forskellige valg i produktionen,påvirkede kundeloyaliteten og valg af platform. Prognoser viste også, hvor mange seere de ville få på forskellige koncepter og hvilket indhold, de skal udvikle og lancere for at opretholde høje seertal. Prognoserne gav besparelser på mellem 50 og 100 millioner kroner og øgede indtægter som følge af optimering af reklameplaceringer.

 

Prognose af Customer Churn stadig mere efterspurgt

Customer Churn er et klassisk og neomoderne koncept, som mange nye serviceudbydere inden for økonomi, energi og transport benytter. Det vil sige en sandsynlighedsvurdering af, om en kunde forlader dig eller ej. For en bank kan det se sådan ud, når vi bruger Big Data og maskinel indlæring:

  1. Et stort datasæt, der indeholder detaljer pr. kunde. Dette kan være transaktionshyppigheden, baseret på tid, køn, alder, civilstand, lån og tilbagebetalingsinformation, sporing af klik i net- og mobilbank osv.– kun fantasien sætter grænser.
  2. Analytikere, der vasker datasættet og gennemgår og skaber en indsigt i, hvilke korrelationer man skal være på udkig efter.
  3. Algoritmen er nøje udvalgt og bruges til at konstruere en model. Denne model vil være ansvarlig for at skabe prognoser.

Ved hjælp af relativt enkle trin kan en bank på denne måde beregne alle kunders sandsynlighed for at forlade banken på et givent tidspunkt. Det er vigtige oplysninger, der kan bruges til at kommunikere præventivt med disse kunder. Erfaringen viser, at churn-prognose kan give betydelige besparelser, navnlig for virksomheder, hvor omkostningerne i forbindelse med erhvervelse vægter tungt. 

 

Er der kun store internationale virksomheder, der formår at tjene penge på Big Data?

Big Data, AI, maskinel indlæring, autonomi, neurale netværk og churn-prognoser er alle begreber, der frister, men stadig i høj grad begrænses til brug på fancy PowerPoint-dias. Derfor har vi set på, hvordan almindelige nordiske virksomheder kan opnå forretningsmæssig værdi her. Og investeringsniveauet skal være overkommeligt.

 

... og her kommer den tekniske beskrivelse

For at konstruere Big Data-modeller involverer algoritmerne store mængder matematik og statistik. En af de største udfordringer på dette område er, hvordan man oversætter tekniske metrikker af algoritmeydelse til gode mål og målinger af forretningsværdi. (En metrikværdi er en enhed, der definerer kvalitative og kvantitative mål, f.eks. rangering af, hvor attraktivt et tilbud er på en skala fra 1 til 10. Her kan skalaen kaldes en metrik for, hvor attraktive tilbuddene er.) Det kræver solidt domænekendskab, kombineret med en god forståelse af potentialet i datasættet, sammenlignet med den genererede model. Det her er den tricky bit, brobygningen mellem to forskellige felter. Skal modellen have en høj grad af nøjagtighed på de udvalgte kunder, eller sørge for at møde flest muligt kunder, der sandsynligvis vil forlade banken? Altså den højeste præcision, eller andel af kunder, der er tilbøjelige til at forlade banken? Dette er metrikker, som er afhængige af hinanden – øger du den ene og mindsker du den anden. Begge er populære i ydelsesvurderingen af maskinlæringsalgoritmer, men hvordan kan du omsætte det til finansielle mål?

Vi har for nylig haft en sådan problemstilling, da vi hjalp en bank med at forudsige, om en kunde ønsker at forlade banken eller ej, for så at bruge målrettede tiltag mod de kundesegmenter, der blev afdækket.

 

Tværfagligt samarbejde er nødvendigt for at øge forretningsværdien

Ofte går målrettede handlinger ud på at ringe til kunden eller sende tilpassede tilbud. I eksemplet ovenfor kan det opfattes som bedre at gå efter høj præcision. Men hvad hvis virksomheden i realiteten tjener mere på at fokusere på et kundesegment, der har lavere sandsynlighed for frafald af kunder? Det viste sig også at være tilfældet i eksemplet ovenfor, men det tog lang tid, før det blev afdækket.

Et væsentligt aspekt i en pipeline (procedure eller protokol) er at bevare den menneskelige dimension. Aldrig tidligere har kundeoplevelsen og kundeværdien stået så højt på listen som i dag. Domæneindsigt skal kortlægges hos både forbruger og udbyder, og der skal udarbejdes en fælles forståelse for behov og ønsker gennem samarbejde. Det er et centralt skridt i enhver pipeline.


For det er ikke modellen alene, algoritmen eller datasættet, der udgør værdi for en virksomhed. Det er pipelinen, metoden, strategien. Med en gennemtænkt pipeline (procedure eller protokol) samlet i et tværfagligt samarbejde mellem data scientists, forretningsudviklere og kundens viden om økonomiske mål og KPI'er, kan værdiskabelsen være betydelig.

 

Den uslebne diamant

I stedet for at undervurdere sådanne projekter kan gode processer i disse projekter give gode resultater ved at afdække det potentiale, man kan få ud af data, som har hobet sig op i baglokalet. I nogle tilfælde vil datasættene ikke have potentiale til at give stor indtjening, men selv i sådanne tilfælde vil en god pipeline afdække behovene og mulighederne for at konfigurere systemer, der passivt udvikler gode datasæt over tid. Det er en investering til en lav omkostning, som vi ser, at flere og flere kunder finder værdifuld.

En god pipeline øger chancerne for, at det endelige produkt harmonerer med ambitionen. Ideelt set vil man konstruere en model, der bliver optimeret mod metrikker, der tager hensyn til hvilket domæne og hvilken værdi, du søger. Og i en god pipeline er det meget centralt, at kunden er i centrum. Hvis du udelukkende behandler kundedata som tal på et stykke papir, mister du empatien og den relevans, der kræves for et vellykket Big Data-projekt.

Kontakt os
Stine Reesen
CEO, Knowit Experience København
Kontakt mig
Kontakt mig

Til toppen