Tom Davenport tiedolla johtamisesta

Tom Davenport kävi läpi analytiikan historiaa. Osa esityksen termeistä oli itselle vieraampia ja niistä lisätietoa hakiessa jäljet johtivat usein Deloitten tutkimuksiin ja julkaisuihin. Davenportilla on ollut työhistoriaa Deloitten palveluksessa.

Esityksessään Davenport tunnisti analytiikan 4 aikakautta.

Vaihe 1.0 (”artisanal analytics”)

Vaiheen 1.0 (”artisanal analytics”) Davenport ajoitti alkaneen 1970-luvulla. Tämän aikakauden analytiikkavälineet ovat käytössä edelleen joltain osin. Kyse on kuvailevasta analytiikasta ja raportoinnista. Raportoinnin päätavoitteena on tukea sisäistä päätöksentekoa. Ennustavia analyysimallejakin on ja ne pohjautuvat ihmisten tekemiin hypoteeseihin. Yksi käyttökohde tälle analytiikan lajille on muun muassa varastoinventaario.

Vaihe 2.0 (big data analytics)

Vaihe 2.0 (big data analytics) ajoittuu Davenportin mukaan 2000-luvun alkuun. Analytiikan lähdemateriaalina on laaja, rakenteeton datajoukko. Tällaisen materiaalin analysointi vaati uudenlaisia laskennallisia työvälineitä.

Muun muassa Barack Obaman hallinto hyödynsi tätä analytiikkaa (esimerkiksi Issenberg (2012), How Obama’s Team Used Big Data to Rally Voters. MIT Technology Review, 19.12.2012). Osana tätä vaihetta perustettiin yrityksiä, jotka loivat data-analytiikkaan perustuvia ns. ”data-tuotteita”. Tässä vaiheessa analytiikan painopiste siirtyi tuotteisiin, joita voitiin myydä.

Vaihe 3.0 (data economy analytics)

Vaihe 3.0 (data economy analytics) käynnistyi Davenportin mukaan vuonna 2013. Hän kutsuu vaihetta myös data-talouden aikakaudeksi (data economy era). Tässä analytiikan lajissa sekoitetaan sekä perinteistä analytiikkaa ja ns. big dataa.

Analyysimateriaalia ovat esimerkiksi yritysten omiin asiakaslojaalisuusohjelmiin kertyvä data. Analytiikka on kehittynyt yhdeksi liiketoiminnan ydinalueiksi. Analyyseja ei tehdä enää manuaalisesti vaan analysointi on ns. teollistunut (industrialized): analytiikkaa tekevät koneet, analyyseja syntyy nopeammin ja toiminta on skaalattavissa eri kokoisiin yrityksiin ja tarpeisiin (Davenport, Industrialized analytics : Implications of large-scale predictive analytics models. Deloitte).

Esimerkkinä tästä analytiikasta Davenport mainitsee Ciscon ns. propensity model -analyysin, jolla yritys tekee ennusteita siitä, millä todennäköisyydellä asiakas ostaa Ciscon tuotteen (Davenport & Rosner (2016), Decoding the path to purchase Using autonomous analytics for customer mapping; Davenport, 7 Ways to Introduce AI into Your Organization. Harvard Business Review). Tätä nykyä Cisco keskittyy Davenportin mukaan ennustamaan yritystasolla, ketkä yksittäiset yritysjohtajat hankkivat Ciscon tuotteita. Kuuleman mukaan analyysi on hyvin yksityiskohtaista ja osuu hyvin kohdilleen.

Toinen esimerkki tällaista analytiikkaa hyödyntävästä yrityksestä on Procter & Gamble, jolla pääpaino analytiikassa on parantaa hallinnon päätöksentekoa. Analyytikkoja on suoraan johdon, esimerkiksi toimitusjohtajan, neuvonantajina. Sovellusalueina on esimerkiksi sosiaalisen median reaaliaikainen analysointi, jonka avulla yritys ns. pitää sormeaan asiakassuhdepulssilla ja seuraa, mikä on kuluttajien mieliala yrityksen suhteen. Davenportin mukaan Procter & Gamble on siirtymässä vaiheeseen 4.0 muun muassa myynnin optimoinnissa.

Davenportin mukaan myös General Electric hyödyntää 3.0-analytiikkamenetelmiä. Fokuksessa yrityksellä ovat data-pohjaiset tuotteet ja palvelut, joita tarjotaan yrityksen perinteisten tuotteiden (kuten junien, suihkumoottorien ja turbiinien) ohessa. General Electric on sekin siirtymässä Davenportin vaiheeseen 4.0 muun muassa koneoppimiseen pohjautuvien teknologioiden käyttöönoton myötä. Koneoppimista hyödynnetään ”digital twin” -analyysissa, jolla seurataan fyysisen esineen aiempaa ja nykyistä toimintaa ja pyritään optimoimaan suoritusta. Tällainen analyysi pohjautuu suureen, kumulatiiviseen, reaaliaikaiseen ja arkimaailmasta saatavaan mittausdataan. Tätä dataa ja sen analysointia voidaan hyödyntää muun muassa tuotantoprosessin tai tuotteiden kehittämisessä. (Industry 4.0 and the digital twin : Manufacturing meets its match. Deloitte.)

Vaihe 4.0 (cognitive analytics)

Vaiheen 4.0 (cognitive analytics) Davenport laskee alkaneen juurikin vuonna 2018. Davenport puhuu myös kognitiivisten teknologioiden, kuten tekoälyn (artificial intelligence), aikakaudesta.

Tässä vaiheessa analytiikka alkaa olla yhä itsenäisempää ja se tekee myös automatisoituja päätöksiä. Tietojärjestelmät pystyvät tekemään joitain ihmisen aiemmin hoitamia tehtäviä. Dataa analysoimalla pyritään löytämään välineitä ja ratkaisuja, joilla organisaatio saadaan toimimaan yhä tehokkaammin.

Analytiikan taustalla on (automatisoituun) koneoppimiseen perustuvia teknologioita, kuten neuroverkot (neural networks) ja syväoppiminen (deep learning), luonnollisen kielen käsittelyyn liittyviä työkaluja, erilaisten työprosessien robotisaatiota.

4.0-vaiheessa olevista yrityksistä Davenport antoi esimerkkinä Vanguardin, jonka sijoituspalveluissa yhdistyy kone- ja ihmisäly. Tekoäly hoitaa yhä isompaa osaa sijoituspalveluista ja leikkisästi Davenportin mukaan ihmisasiantuntijalle jäävät talouspsykiatriaan (”financial psychiatry”) liittyvät tehtävät.

Chileläinen kaivosyhtiö Codelco hyödyntää automatisaatiota työturvallisuuden parantamiseen. Yhtiö aloitti 1990-luvulla kauko-ohjattavilla kaivostyökaluilla ja on siirtynyt muun muassa kaivoksissa toimiviin autonomisiin kuljetusvälineisiin.

Hissiyhtiö Koneen Davenport mainitsi esimerkkinä tekoälyn tuomisesta palveluntarjontaan. Kone tekee yhteistyötä IBM Watsonin ja Salesforce.comin kanssa. Watsonin Internet of Things -teknologiaa hyödynnetään hissilaitteiden valvontaan ja toiminnan ennustamiseen. Tekoälyn avulla Kone pyrkii tunnistamaan ja ennakoimaan teknisiä ongelmia ja huollon tarvetta. Samasta asiasta on kirjoittanut myös New York Times (From Agriculture to Art — the A.I. Wave Sweeps In, 21.10.2018).

Miksi hyödyntää tekoälyä (cognitive/AI)?

Davenport mainitsi yhdeksi perusteluksi tekoälyn hyödyntämiseen sen, että ihmiseen ei aina voi luottaa ennakkoasenteiden, henkilökohtaisten taipumusten tai puolueellisuuden vuoksi. Joissain tilanteissa ihminen voi olla huono tekemään päätöksiä. Teknologia puolestaan kykenee joissain tehtävissä nopeampiin suorituksiin kuin ihminen. Tietyissä tehtävissä ihmistyövoima voi olla kalliimpaa tai tietyt tehtävät voivat olla liian tylsiä/väsyttäviä ihmiselle.

Deloitten vuonna 2018 tekemän selvityksen mukaan käytetyimpiä tekoäly-teknologioita (cognitive technologies) olivat robotiikka (prosessien automatisoinnissa; 59 %), tilastoihin pohjautuva koneoppiminen (statistical machine learning; 58 %), luonnollista kieltä prosessoivat tai tuottavat teknologiat (53 %), asiantuntija- tai sääntöpohjaiset järjestelmät (expert or rule-based systems; 49 %), syväoppimiseen pohjautuvat neuroverkot (deep learning neural networks; 34 %), robotit (physical robots (32 %).

Yleisimmät tekoälyhankkeet yrityksillä liittyvät robotiikan ja tekoälyn avulla saavutettavaan automatisointiin (robotics and cognitive automation, 47 %). Automatisoinnin kohteena ovat rutiinitehtävät tai hallinnolliset tehtävät, jotka ovat dataintensiivisiä. Tällaisessa automatisoinnissa on kyse esimerkiksi

  • sähköposteissa tai puhelinkeskuksissa olevan datan siirtämisestä muihin järjestelmiin
  • kadonneiden luottokorttien poistaminen käytöstä ja korvaaminen uudella kortilla ilman ihmistyövoiman puuttumista prosessiin
  • sijoitusraporttien tuottaminen automatisoidusti.

Toiseksi yleisimpiä hankkeita ovat tekoälyn tuottamat analyysit (cognitive insights, 37 %), jotka pohjautuvat rakenteisen dataan tilastolliseen analysointiin. Käsite ”cognitive insight” oli itselleni vieras. Muutamia kirjoituksia löytyy Deloittelta, joissa käsitettä oli avattu. Paul Roma määrittelee käsitteen näin:

Cognitive insights to uncover hidden patterns and relationships to identify new opportunities for innovation.

Aiheesta ovat kirjoittaneet myös Ryan Renner, Mark Cotteleer ja Jonathan Holdowsky (Cognitive technologies : A technical primer. Deloitte, 6.2.2018). Tätä tekniikkaa käytetään esimerkiksi reaaliaikaisessa luottokorttihuijausten tunnistamisessa.

Kolmanneksi yleisin hanke on tekoälypohjainen osallistuminen (cognitive engagement, 16 %), jossa tekoäly on joko kielellisessä tai kuvapohjaisessa vuorovaikutuksessa yrityksen asiakkaiden tai työntekijöiden kanssa. Davenport käytti esimerkkinä tällaisesta teknologiasta ruotsalaista Ada-nimistä yritystä, joka oli automatisoinut ns. entry level -tehtävät. Tekoälyn avulla yritys tarjosi muun muassa 24/7-asiakaspalvelua. Tekniikkaa käytetään yritysten sisällä henkilöstöhallinnossa tai IT-tuessa työntekijöiden esittämien kysymysten selvittämisessä.

Davenport esitti kysymykseen, automatisoidaanko seuraavaksi tietotyöläisten tehtävät? Ja vastasi: kyllä ja ei. Davenportin mukaan monia tietotyöhön liittyviä tehtäviä automatisoidaan ja voi olla työpaikkoja katoaa, mutta toisaalta voi syntyä uudenlaisia työpaikkoja, joissa työskennellään yhdessä tekoälyn kanssa. Automatisointi kytkeytyy työntuottavuuteen ja Davenport näkee yhdeksi mahdollisuudeksi pienentää automatisoinnin aiheuttamia vaikutuksia työelämään sen, että tuottavuuden myötä saaduilla voitoilla rahoitetaan työntekijöiden uudelleenkouluttautumista ja uudelleensijoittumista.

Davenport antoi omat viisi vinkkiä, mitä ihminen voi tehdä tekoäly-kaudella:

  • step in: ihmiset hallitsevat järjestelmien yksityiskohdat, heikkoudet, vahvuudet, mitä pitää kehittää
  • step up: ihmisellä on kokonaiskuva ja ymmärrys mitä automatisoida
  • step aside: ihminen voi keskittyä niihin osa-alueisiin, joilla ihmiset toistaiseksi pärjäävät koneita paremmin
  • step narrowly: ihminen voi erikoistua johonkin niche-asiaan, jota ei kannata automatisoida
  • step forward: ihminen voi rakentaa automatisoituja systeemejä.

Varsinkin listan viimeisen kohdan perusteella voi tulkita, että Davenport suhtautuu tekoälyyn myönteisesti.

Uuden teknologian vaikutusta ihmisiin Davenport pohdiskeli termiparilla automatisointi vai augmentointi (augmentation)? Davenportin mukaan tavoitteena teknologian käyttöönotossa on myös augmentointi, jossa on kyse työskentelystä yhdessä esimerkiksi tekoälyn kanssa. Tämä on mahdollinen muutossuunta, jossa ihminen ja kone tekevät yhteistyötä.

Kirjastoalalta tuontyyppinen ihminen ja kone työkavereina -esimerkki voisi olla Jyväskylän yliopiston avoimen tiedon keskuksen keväällä 2018 uusima opinnäytteiden sisällönkuvailuprosessi (Julkaisuarkisto JYX uudistuu). JYX-julkaisuarkistossa ryhdyttiin keväällä hyödyntämään Kansalliskirkastossa kehitettyä Finnaan perustuvaa ANNIF-sisällönkuvailupalvelua:

Kun opiskelija lähettää työnsä, lomake tunnistaa työn kielen ja pyytää ANNIF-palvelulta asiasanaehdotuksia, joista opiskelija valitsee sopivimmat. Tästä kertyvää aineistoa käytetään jatkossa ANNIFin kehittämiseen yhä paremmaksi. (Julkaisuarkisto JYX uudistuu)

ANNIFin kanssa pääsimme leikkimieliseen sisällönkuvailukisaan kirjastoverkkopäivillä 2017. En muista enää, mitkä olivat kisan tulokset, mutta muistan, että lupaus oli, että revanssit otetaan.

Esimerkkeinä kirjastoalan analytiikkavälineistä tulee mieleen palveluympäristön raportointipalvelu kirjastotoimelle ja CollectionHQ-analyysityökalu, joka on ollut käytössä ainakin Jyväskylän kaupunginkirjastossa (Avoin lähdekoodi yleistyy kirjastojen järjestelmissä, Kirjastolehti).

Tom Davenportin esitykselle esittivät kommenttipuheenvuorot Nina Helander ja Olli-Pekka Heinonen. Helander näki haasteeksi sen, että teknologia on erillään yrityksen muista osasista esimerkiksi johdosta. Mihin pitäisi tutkimuksessa keskittyä? Nyt tutkitaan yksittäisiä yrityksiä. Pitäisikö tutkimuksen kohteena olla alustat (platforms) ja ekosysteemit? Ovatko faktat parempia kuin tunteet, ja ovatko eettiset kysymykset faktaa vai tunnetta? Helander nosti esiin, että hyvä johtaja haluaa tehdä hyviä, oikeudenmukaisia päätöksiä ja sitä varten tarvitaan dataa ja faktoja.

Myös Olli-Pekka Heinonen käsitteli kommenttipuheenvuorossaan etiikkaa. Datan määrä kasvaa, mutta samaan aikaan voi kysyä, toimimmeko viisaammin? Mitä ylipäätään on humaanisuus tulevaisuudessa (what is humanity in the future)? Vapauttaako tekniikka ihmiset tekemään asioita joissa ihmiset ovat parhaita? Kuinka saada kokonaisvaltaisempi kuva missä ollaan ja mitä tapahtuu ja mitä pitäisi tehdä? Mitä voi oppia ja mitä voi tehdä opituilla asioilla? Kuinka tehdä eettisesti kestäviä päätöksiä? Millä toimenpiteillä emme luo uusia isoja ongelmia? Huonona esimerkkinä Heinosella oli Cambridge Analytics? Kuinka säädellä uuden teknologian käyttöä? Esimerkiksi Facebookista ei aluksi osattu arvata mitä ongelmia se toisi tullessaan. Kun Fbsi oli aikansa kasvanut, se osoittautui haastavaksi, ehkä liian isoksi säädeltäväksi.

Eettiset kysymykset kiinnostavat Davenportin mukaan yhä enemmän myös opiskelijoita, mutta esityksessään hän ei näitä kysymyksiä käsitellyt.