Video Blog: Asiakkaan elinkaaren arvon demo

Video Blog: Asiakkaan elinkaaren arvon demo

 

Kysy lisää palvleuistamme:

Asiakkaan elinkaaren arvon mallinnus hyödyttää sekä asiakasta että toimittajaa

Asiakkaan elinkaaren arvon mallinnus hyödyttää sekä asiakasta että toimittajaa

 

Kirjoittaja: Janne Flinck, Codento

 

Johdatus asiakkaan elinkaaren arvoon

Asiakasanalytiikka ei tarkoita jokaisen euron optimointia asiakassuhteessa, eikä keskittymistä lyhyen aikavälin toimintaan. Asiakasanalytiikan tulisi pyrkiä maksimoimaan jokaisen asiakassuhteen täysi arvo. Tätä ”täyden arvon” mittaria kutsutaan asiakkaan elinkaaren arvoksi (LTV).

Yrityksen tulisi tarkastella kuinka arvokkaita asiakkaat ovat olleet aiemmin, mutta puhtaasti tämän arvon ekstrapoloiminen tulevaisuuteen ei todennäköisesti ole tarkin mittari asiakassuhteen tulevaisuuden arvolle.

Mitä arvokkaampi asiakas on yritykselle tulevaisuudessa, sitä enemmän yrityksen tulisi panostaa kyseiseen asiakassuhteeseen. Asiakkaan elinkaariarvoa tulisi ajatella win-win-tilanteena yritykselle ja asiakkaalle. Mitä korkeammaksi asiakkaan elinkaaren arvo estimoidaan, sitä todennäköisemmin yrityksen tulisi panostaa kyseiseen asiakassuhteeseen.

Pareto-periaate sanoo, että 20 % asiakkaista edustaa 80 % myynnistä. Mitä jos voisit tunnistaa nämä asiakkaat – ei vain menneisyydessä, vaan myös tulevaisuudessa? LTV:n ennustaminen on datalähtöinen tapa tunnistaa nämä asiakkaat.

 

Liiketoimintastrategia ja elinkaaren arvo

On enemmän tai vähemmän ”tavallisia” tapoja laskea LTV, joista osaa käsittelen tässä artikkelissa. Nämä valmiit laskentamenetelmät voivat toimia jopa sellaisenaan, mutta tärkeintä on, että ne tarjoavat hyviä esimerkkejä alkuun.

Elinkaaren arvon pitäisi olla jotain, joka määrittää yrityksellesi suunnan, koska se on myös osa liiketoimintastrategiaa. Elinkaaren arvo ei ole sama kaikille yrityksille ja se voi jopa muuttua ajan myötä saman yrityksen kohdalla.

Jos yrityksen strategia koskee kestävää kasvua, elinkaaren arvoon tulisi sisällyttää joitakin sitä mittaavia tekijöitä. Ehkä asiakkaalla on enemmän strategista arvoa yritykselle, jos hän ostaa kestävämmän version tuotteesta. Tämä ei myöskään ole “aseta ja unohda” -mittari, vaan mittaria tulee tarkastella uudelleen ajan kuluessa, jotta nähdään onko se yhä linjassa yrityksen strategian ja tavoitteiden kanssa.

LTV on tärkeä myös siksi, että siitä voidaan johtaa muita tärkeitä mittareita. Esimerkiksi elinkaaren arvo on luonnollisesti asiakkaan hankintamenojen yläraja, ja brändin kaikkien asiakkaiden elinkaaren arvojen summa on tärkeä mittari liiketoiminnan arvostuksissa.

 

Elinkaaren arvon laskentamenetelmät

Pohjimmiltaan LTV-malleja voidaan käyttää vastaamaan seuraavanlaisiin kysymyksiin:

  • Kuinka monta tapahtumaa asiakas tekee tietyssä tulevassa aikaikkunassa?
  • Kuinka paljon arvoa asiakas tuottaa tietyssä tulevaisuuden aikaikkunassa?
  • Onko asiakas vaarassa jäädä pysyvästi epäaktiiviseksi?

Asiakkaan elinkaaren arvoa ennustaessa yleensä kohdataan erilaisia ongelmia, jotka vaativat erilaisia lähestymistapoja:

  • Nykyisten asiakkaiden tuleva arvo
  • Uusien asiakkaiden tuleva arvo

Monet yritykset ennustavat asiakkaan elinkaaren arvoa vain analysoimalla myynnin kokonaismäärää ilman kontekstia. Esimerkiksi asiakas, joka tekee yhden suuren tilauksen, voi olla vähemmän arvokas kuin toinen asiakas, joka ostaa useita kertoja, mutta pienempiä määriä.

LTV-mallinnus voi auttaa ymmärtämään asiakkaiden ostoprofiileja. Mallintamalla asiakkaan elinkaaren arvoa, organisaatio voi priorisoida seuraavia toimintoja:

  • Mille asiakkaille keskittää enemmän resursseja
  • Kuinka paljon sijoittaa mainontaan
  • Mille asiakkaille kohdistaa mainontaa
  • Kuinka siirtää asiakkaat segmentistä toiseen
  • Hinnoittelustrategiat

LTV-malleja käytetään asiakkaan arvon kvantifiointiin ja yrityksen mahdollisesti toteuttamien toimien vaikutusten arvioimiseen. Tarkastellaan kahta esimerkkiskenaariota elinkaaren arvon laskennassa: sopimukseton ja sopimuksellinen liiketoiminta. Nämä ovat kaksi melko yleistä tapaa lähestyä tuotteen elinkaaren arvon mallintamista.

 

Sopimukseton liiketoiminta

Yksi yksinkertaisimmista tavoista laskea elinkaaren arvo on tarkastella ostojen ja asiakasvuorovaikutusten historiallisia lukuja ja laskea tapahtumien määrä asiakasta kohti ja tapahtuman keskimääräinen arvo euroissa.

Käytettävissä olevien tietojen avulla on rakennettava malli, joka pystyy laskemaan ostotodennäköisyyden asiakasta kohti määritellyssä aikaikkunassa. Kun sinulla on seuraavat kolme mittaria, saat elinkaariarvon kertomalla ne:

LTV = Transaktioiden määrä x Transaktioiden arvo x Oston todennäköisyys

Tässä lähestymistavassa on muutamia haasteita. Ensinnäkin, mikä on transaktion arvo? Onko se myynti, tuotto vai myyty määrä? Kasvattaako jonkin tuotteen tietty ominaisuus myyntitapahtuman arvoa?

Transaktion arvon tulee olla jotain, joka noudattaa liiketoimintastrategiaasi ja edistää pitkäaikaisia ​​asiakassuhteita lyhyen aikavälin voiton tavoittelun sijaan.

Toinen haaste on, että uusien asiakkaiden elinkaarten arvojen ennustaminen vaatii erilaisia ​​menetelmiä, koska dataa historiallisista tapahtumista ei ole.

 

Sopimuksellinen liiketoiminta

Tilausmallissa elinkaaren arvo on erilainen kuin sopimuksettomassa liiketoiminnassa, koska asiakas on sitoutunut ostamaan sinulta sopimuksen voimassaolon ajan. Asiakasvaihtuvuuden mittaaminen taas on helppoa tilausmallissa. 

Esimerkiksi lehden kuukausitilaukselle tai suoratoistopalvelulle voidaan laskea elinkaaren arvo sen mukaan kuinka monta kuukautta asiakas tilaa uudelleen:

LTV = Selviytymisprosentti x Tilauksen arvo x Diskonttokorko

Selviytymisprosentti kuukausittain olisi niiden asiakkaiden osuus, jotka säilyttävät tilauksensa. Tämä voidaan arvioida tiedoista asiakassegmenttikohtaisesti elinaika-analyysi avulla. Tilauksen arvo voisi olla liikevaihto vähennettynä palvelun tarjoamisen kustannuksilla ja asiakkaan hankintakustannuksilla.

 

Toimenpiteet LTV:n perusteella

Nyt sinulla on asiakassuhteen elinkaaren arvo, johon organisaatiosi päättäjät ovat tyytyväisiä. Mitä seuraavaksi? Laitatko sen vain osaksi raportointia? Lasketko mittarin uudelleen kerran kuukaudessa ja näytätkö mittarin kehityksen raportilla?

Onko LTV vain yksi mittari, jonka analytiikkatiimi tarjoaa sidosryhmille ja odottaa heidän käyttävän sitä jollain tavalla ”liiketoiminnan tulosten ajamiseen”? LTV:n sisällyttäminen osaksi raportointia on hyvä idea, mutta ei usein suoraan johda toimintaan.

Tietoa elinkaaren arvosta voidaan käyttää useilla tavoilla. Esimerkiksi markkinoinnissa toimenpiteitä voidaan suunnitella segmenteittäin ja kokeilla millaiset toimenpiteet maksimoivat LTV:n lyhyen aikavälin tuoton sijaan. Todennäköisyys reagoida myönteisesti toimenpiteeseen kerrottuna LTV:llä on odotusarvo toimenpiteelle. Tästä saamme jokaisesta toimenpiteestä odotusarvon per asiakas, josta voimme valita kullekin asiakkaalle tai asiakassegmentille parhaan toimenpiteen. Tämän laskelman tekeminen koko asiakaskunnasta antaa tiedon asiakkaista, joille tulisi kohdistaa erityisiä toimenpiteitä elinkaaren arvon maksimoimiseksi markkinointibudjetin raameissa. Se auttaa myös tunnistamaan asiakkaat, jotka kannattaisi siirtää segmentistä toiseen.

Hinnoittelussa puolestaan voidaan LTV:n avulla arvioida, kuinka eri asiakassegmentit reagoivat erilaisiin hinnoittelustrategioihin. LTV voidaan myös ottaa huomioon dynaamisissa hinnoittelualgoritmeissa. 

Yrityksen tulee seurata KPI-arvoja, jotka vaikuttavat heidän hallitsemaansa elinkaariarvolaskelmaan. Esimerkiksi sopimussuhteen ulkopuolisessa yhteydessä tuotetiimiä voidaan mitata sen perusteella, kuinka hyvin he kasvattavat tapahtumien keskimääräistä määrää tai sopimuskontekstissa sitä, kuinka monta kuukautta tyypillinen asiakas pysyy asiakkaana.

Asiakastuen tiimiä voidaan mitata sillä, miten hyvin he tarjoavat asiakaspalvelua asiakkaiden vaihtuvuuden vähentämiseksi. Tuotekehitystiimiä voidaan mitata sillä, kuinka hyvin he kasvattavat transaktion arvoa. Markkinointitiimiä voidaan mitata ostotodennäköisyyden lisäämisellä.

Loppujen lopuksi sitä saa mitä mittaa.

 

Tarvittava data

LTV-mallit pyrkivät yleensä ennustamaan asiakkaiden käyttäytymistä havaittujen asiakkaiden ominaisuuksien funktiona. Siksi on tärkeää kerätä tietoja asiakasvuorovaikutuksista, toimenpiteistä ja asiakkaan käyttäytymisestä.

Ostokäyttäytymistä ohjaavat tekijät, kuten tuotteen tai palvelun arvostus verrattuna kilpaileviin tuotteisiin tai palveluihin. Nämä tekijät voivat olla (tai eivät ole) suoraan mitattavissa, mutta tietojen kerääminen kilpailijoiden hinnoista ja toimista voi olla ratkaisevan tärkeää analysoitaessa asiakkaiden käyttäytymistä. Tärkeää tietoa syntyy myös asiakkaan ja brändin välisestä vuorovaikutuksesta.

Tärkein tieto on käyttäytymisdata. Tämä voi olla ostotapahtumia, verkkosivustokäyntejä, selaushistoriaa ja sähköpostin avaamista. Nämä tiedot kuvaavat asiakkaan vuorovaikutuksia yksittäisten tuotteiden tai kampanjoiden kanssa.

Yllä kuvattuihin tietoihin tulee myös yhdistää yrityksen muita tietoja, kuten luettelotiedot, kausivaihtelut, hinnat, alennukset ja myymäläkohtaiset tiedot.

 

LTV:n käyttöönoton edellytykset

Tähän mennessä on käyty läpi miksi LTV on tärkeä, miten se voidaan laskea ja miten hyödyntää sitä. Tässä on muutamia kysymyksiä, joihin on vastattava ennen LTV:n käyttöönottoa:

  • Keitä asiakkaat ovat?
  • Mikä on paras arvon mitta?
  • Miten sisällyttää liiketoimintastrategia LTV-laskelmiin?
  • Onko kyseessä sopimuksellinen vai sopimukseton liiketoiminta?

Jos pystyt vastaamaan näihin kysymyksiin, olet valmis elinkaaren arvon mallinnuksen käyttöönottoon.

Tutustu demoon täällä.

 

 

Blogin kirjoittajasta: Janne Flinck  on Codenton AI & Data Lead. Janne liittyi Codentoon Accenturelta vuonna 2022. Jannella on laaja kokemus Google Cloud -teknologioista. Hänen kiinnostuksen kohteena on dataintensiivisten sovellusten ja työkalujen luominen ja arkkitehtuuri. Jannella on kolme Google Cloud -sertifikaattia.

 

Ota meihin yhteyttä niin keskustellaan asiakkaan elinkaaren arvosta ja sen hyödyntämisestä lisää.

Koneoppimisen pilotointia ylinopeudella – Google Cloud ja AutoML hyötykäytössä

Koneoppimisen pilotointia ylinopeudella – Google Cloud ja AutoML hyötykäytössä

Voiko moderneilla koneoppimistyökaluilla tehdä viikon työt yhdessä iltapäivässä? Koneoppimismallien kehitystyö on perinteisesti ollut erittäin iteratiivinen prosessi. Perinteinen koneoppimisprojekti aloitetaan datasettien valinnalla ja esikäsittelyllä: puhdistuksella ja preprosessoinnilla. Vasta tämän jälkeen voidaan aloittaa varsinainen koneoppimismallin kehitystyö.

On erittäin harvinaista, käytännössä mahdotonta, että uusi koneoppimismalli kykenee ensimmäisellä yrittämällä antamaan riittävän hyviä ennusteita. Kehitystyö sisältääkin perinteisesti merkittävän määrän epäonnistumisia niin algoritmien valinnassa kuin niiden hienosäädössä, ammattikielellä hyperparametrien tuunauksessa.

Kaikki tämä vaatii työaikaa, toisin sanoen rahaa. Entä, jos datan puhdistamisen jälkeen kaikki kehitystyön vaiheet voisi automatisoida? Entä, jos kehitysprojekti voitaisiin viedä läpi ylinopeudella tahdilla sprintti per päivä?

 

Koneoppiminen ja automaatio

Viime vuosina koneoppimismallien rakentamisen automatisointi (AutoML) on ottanut merkittäviä harppauksia. Karkeasti kuvattuna perinteisessä koneoppimisessa data scientist rakentaa koneoppimismallin ja kouluttaa sen isohkolla datasetillä. AutoML puolestaan on uudehko lähestymistapa, jossa koneoppimismalli rakentaa ja kouluttaa itse itsensä isohkon datasetin avulla.

Data scientistin ei tarvitse kuin kertoa, millainen ongelma on kyseessä. Kyseessä voi olla esimerkiksi konenäköön, hinnoitteluun tai vaikkapa tekstianalyysiin liittyvä ongelma. Työttömäksi data scientist ei kuitenkaan AutoML-mallien takia jää. Työkuorma siirtyy mallin hienosäädöstä validointiin ja explainable-AI -työkalujen käyttöön.

 

Google Cloud ja AutoML saivat käytännön haasteen

Jokin aika sitten testasimme Codentolla Google Cloud AutoML-pohjaisia koneoppimistyökaluja [1]. Tavoitteenamme oli selvittää, miten Google Cloudin AutoML-työkalu suoriutuu Kagglen House Prices – Advanced Regression Techniques -haasteesta [2]. 

Tavoitteena haasteessa on rakentaa mahdollisimman tarkka työkalu ennustamaan asuntojen myyntihintoja niiden ominaisuuksien perusteella. Hinnoittelumallin rakennuksessa käytetty datasetti sisälsi noin 1400 asunnon tiedot: Yhteensä 80 erilaista potentiaalisesti hintaan vaikuttavaa parametria sekä asuntojen toteutuneet myyntihinnat. Osa parametreista on numeerisia, osa puolestaan kategorisia.

 

Mallin rakentaminen käytännössä

Käytettävä data oli valmiiksi siivottua. Koneoppimismallin rakentamisen ensimmäinen vaihe oli siis valmiiksi tehty. Ensin datasetti, csv-muotoinen tiedosto, ladattiin sellaisenaan Google Cloudin BigQuery-datavarastoon. Latauksessa hyödynnettiin BigQueryn kykyä tunnistaa tietokantaskema suoraan tiedoston rakenteesta. Varsinaisen mallin rakentamisessa hyödynnettiin VertexAI-työkalusta löytyvää AutoML Tabular -ominaisuutta.

Lyhyen kliksuttelun jälkeen työkalulle oli saatu kerrottua, mitkä hintaa ennustavista parametreista olivat numeerisia ja mitkä kategorisia muuttujia. Lisäksi työkalulle kerrottiin, minkä nimiseltä sarakkeelta löytyy ennustettava parametri. Kaikkeen tähän kului työaikaa noin tunti. Tämän jälkeen koulutus käynnistettiin ja ryhdyttiin odottamaan tuloksia. Noin 2,5 tuntia myöhemmin Google Cloudin robotti lähetti sähköpostin ilmoittaen mallin olevan valmis.

 

Lopputulos yllätti positiivisesti

AutoML:n luoman mallin tarkkuus yllätti kehittäjät. Google Cloud AutoML kykeni rakentamaan itsenäisesti hinnoittelumallin, jonka ennustaa asuntojen hintoja noin 90% tarkkuudella. Tarkkuustaso sinänsä ei poikkea hinnoittelumallien yleisestä tarkkuustasosta. Huomattavaa tässä on kuitenkin se, että tämän mallin kehitystyöhön kului yhteensä puolikas työpäivä. 

Google Clloudin AutoML:n edut eivät kuitenkaan lopu tähän. Tämä malli olisi mahdollista liittää hyvin pienellä vaivalla osaksi Google Cloudin dataputkistoa. Malli voitaisiin myös ladata konttina ja ottaa käyttöön muissa pilvipalveluissa.

 

Jatkohyödyntäminen kannattaa

AutoML:ään perustuvia työkaluja voi hyvästä syystä pitää koneoppimisen uusimpana merkittävänä kehitysaskeleena. Työkalujen ansiosta yksittäisen koneoppimismallin kehitystyötä ei enää tarvitse ajatella projektina tai investointina. Näiden työkalujen koko potentiaalia hyödyntämällä voidaan malleja rakentaa likimain nollabudjetilla. Uusia koneoppimiseen pohjautuvia ennustemalleja voidaan rakentaa melkeinpä hetken mielijohteesta

AutoML-työkalujen tehokas käyttöönotto kuitenkin vaatii merkittäviä alkuinvestointeja. Työkaluja hyödyntävän organisaation liiketoiminnan koko datainfra, säilytysratkaisut, dataputket sekä visualisointikerrokset, on ensin rakennettava pilvinatiiveilla työkaluilla. Codenton sertifioidut pilviarkkitehdit ja datainsinöörit auttavat näissä haasteissa.

Lähteet:

  1. Google Cloud AutoML, https://cloud.google.com/automl 
  2. Kaggle, House Prices – Advanced Regression Techniques, https://www.kaggle.com/competitions/house-prices-advanced-regression-techniques/ 

 

Artikkelin kirjoittaja on Jari Rinta-aho, Senior Data Scientist & Consultant, Codento. Jari on koneoppimisesta ja matematiikasta kiinnostunut konsultti ja fyysikko, jolla on laaja kokemus koneoppimisen hyödyntämisestä ydinenergian parista. Hän on myös opettanut yliopistossa fysiikkaa sekä johtanut kansainvälisiä tutkimusprojekteja. Jarin kiinnostuksen kohteet ovat ML-Ops, AutoML, Explainable AI ja Teollisuus 4.0.

 

 

Kysy lisää Codenton AI- ja datapalveluista:

Liiketoimintalähtöinen koneoppija Google Cloudin avulla

Liiketoimintalähtöinen koneoppija Google Cloudin avulla: monikielinen asiakaspalauteluokittelija viikossa

Author: Jari Rinta-aho, Codento

Olemme Codentossa vauhdilla laajentaneet palveluitamme datan ja koneoppimisen vaativiin toteutuksiin ja palveluihin. Asiakkaidemme kanssa keskustellessa seuraavat liiketoiminnalliset tavoitteet ja odotukset ovat nousseet usein keskiöön:

  • Dataan piilotettujen säännönmukaisuuksien paljastaminen
  • Analysoinnin automatisointi
  • Inhimillisten virheiden minimointi
  • Uudet liiketoimintamallit ja -mahdollisuudet
  • Kilpailukyvyn parantaminen ja turvaaminen
  • Moniulotteisen ja monipuolisen data-aineiston jalostaminen

Tässä blogikirjoituksessa käyn läpi oppeja tuoreesta asiakascasestamme.

Asiakaspalautteen syväymmärtämisestä kilpailuetua

Eräällä suomalaisella B-to-C -toimijalla nousi tänä keväänä esiin hyvin konkreettinen liiketoimintatarve: asiakaspalautedataa tulee valtavat määrät, mutta miten hyödyntää palaute älykkäästi päätöksenteossa oikeiden liiketoimintapäätösten tekemiseksi.

Codento suositteli koneoppimisen hyödyntämistä

Codenton suositus oli hyödyntää haasteseen sopivia koneoppimisen lähestymistapaa ja Google Cloud valmisominaisuuksia, jotta asiakaspalautteiden luokittelija olisi valmiina toivotusti viikossa.

Tavoitteena oli luokitella lyhyitä asiakaspalautteita automaattisesti kolmeen koriin: Positiivisiin, neutraaleihin ja negatiivisiin. Asiakaspalautteet olivat pääosin lyhyehköjä suomenkielisiä tekstejä. Joukossa oli tosin myös muutamia tekstejä kirjoitettuna ruotsiksi ja englanniksi. Luokittelijan piti siis pystyä tunnistamaan myös lähdetekstin kieli automaattisesti.

Voiko tuloksia oikeasti odottaa viikossa?

Projekti oli yhtäaikaisesti aikataulultaan tiukka ja kunnianhimoltaan kova. Projektissa ei ollut yhtään aikaa hukattavaksi, vaan tulokset oli käytännössä saatava ensimmäisellä yrittämällä. Codento päättikin hyödyntää mahdollisimman paljon valmiita kognitiivisia palveluita.

Google Cloud avainasemassa

Luokittelija päätettiin toteuttaa yhdistämällä kaksi Google Cloud Platformista löytyvää valmista työkalua: Translate API ja Natural Language API. Tarkoituksena oli kääntää tekstit koneellisesti englanniksi ja määrittää niiden sävy. Koska Translate API kykenee tunnistamaan lähdekielen automaattisesti noin sadan eri kielen joukosta, työkalu ainakin paperilla täytti asetetut vaatimukset.

Oliko tuloksista hyötyä?

Tulosten validoinnissa hyödynnettiin satunnaisotantaa ja käsityötä. Käytössä olleesta aineistosta valittiin satunnaisotannalla 150 tekstiä luokittelijan validointia varten. Ensin nämä tekstit lajiteltiin käsityönä kolmeen luokkaan: positiivisiin, neutraaleihin ja negatiivisiin. Tämän jälkeen sama luokittelu tehtiin kehittämällämme työkalulla. Lopulta työkalun ja käsityön tuloksia verrattiin toisiinsa.

Mitä saavutettiin?

Työkalu ja analysoija olivat samaa mieltä noin 80 %:ssa palautteista. Yhtään päinvastaista näkemystä ei ollut. Validoinnin tulokset koottiin yhteen confusion -matriisiksi

Kuvan confusion -matriisin lävistäjällä olevat luvut 18, 30 ja 75 kuvaavat palautteita, joissa validoija ja työkalu olivat samaa mieltä palautteen sävystä. Yhteensä 11 palautetta oli sellaisia, joissa validoija piti sävyä positiivisena, mutta työkalu neutraalina.

Merkittävin tekijä, joka selittää työkalun tekemää erilaista tulkintaa on asiakaspalautteen sanamuotojen kulttuurisidonnaisuus, ja kun suomalainen sanoo “Ei valittamista”, hän kehuu.

Yhdysvaltalaisen suusta kuultuna tämä on neutraali palaute. Tämä kulttuuriero riittää yksin selittämään, miksi suurin yksittäinen virheryhmä oli “validoijan mielestä positiivinen, työkalun mielestä neutraali.” Muutoin virhe selittyy vaikeudella tehdä eroja rajatapauksista. On mahdotonta sanoa yksiselitteisesti, milloin lievästi positiivinen palaute muuttuu neutraaliksi ja päin vastoin.

Ratkaisun hyödyntäminen liiketoiminnassa

Datan perusteella validoitu lähestymistapa soveltui hyvin haasteen ratkaisemiseksi ja tästä on erinomaiset lähtökohdat jatkossa ymmärtää palautteen luonne, kehittää jatkomalleja tarkempaan analyysiin, nopeuttaa analyysia ja vähentää manuaalista työtä. Ratkaisua voi soveltaa myös hyvin moneen vastaavaan tilanteeseen ja tarpeeseen muissa prosesseissa tai toimialoilla.

Artikkelin kirjoittaja on Jari Rinta-aho, Senior Data Scientist & Consultant, Codento. Jari on koneoppimisesta ja matematiikasta kiinnostunut konsultti ja fyysikko, jolla on laaja kokemus koneoppimisen hyödyntämisestä mm. ydin- ja lääketeknologioiden parissa. Hän on myös opettanut yliopistossa fysiikkaa sekä johtanut kansainvälisiä tutkimusprojekteja.