Olla ihmisiksi?

Monissa symposiumin puheenvuoroissa tekoälyteknologia oli esillä. Tätä teknologiaa selvitetään muun muassa Opetus- ja kulttuuriministeriön käynnissä olevassa Datanhallinnan ja laskennan kehittämisohjelmassa. Symposiumissa tekoälyn mahdollisia uhkakuvia ei juurikaan nostettu esiin. Tekoäly nähtiin pikemminkin mahdollisuutena.

Olli-Pekka Heinosen eettisyyttä korostavat pohdinnat olivat kutkuttavia. Samansukuisia eettisiä ja ihmisyyttä pohtivia teemoja on tullut vastaan muuallakin. Eräs mieleen jäänyt on Nils Gilmanin kirjoitus. Gilman toteaa uusien teknologioiden sisältävän niin suuren potentiaalisen vaikutuksen, että se voi haastaa ihmisyyden määritelmän. Gilmanin mukaan länsimaisessa filosofiassa on otettu itsestäänselvyytenä se, että ihmiset ovat ainoita ajattelevia olentoja. Ihmisiä on pidetty ainoina subjekteina maailmassa, jossa kutakuinkin kaikki muut ovat objekteja. Muun muassa tekoälyteknologia pakottaa määrittelemään uudelleen, mitä on olla ihminen. Tärkeä kysymys on myös se, mihin teknologiaa käytämme. Hyödynnämmekö teknologiaa harmonisemman maailman rakentamiseen?

Sunnuntain 21.10.2018 Helsingin Sanomissa julkaistussa Pekka Vahvasen esseessä tien päässä näkyy sotilaalliseen käyttöön tarkoitettujen robottien armeija ja ihmisen tasoinen tekoäly, jonka ei tarvitse olla paha, jotta se voisi tuhota ihmisen.

Teknologinen kehitys voi nyt olla tekoälyä ja robotiikkaa ja elämä voi olla yhä teknologisempi, mutta ehkä tämä johtaa myös siihen, että ihmisyyteen liittyvät asiat nousevat yhä enemmän esiin. Mitä teknologisemmaksi maailma muuttuu, mietimmekö sitä enemmän, mitä on olla ihminen?

Tom Davenport tiedolla johtamisesta

Tom Davenport kävi läpi analytiikan historiaa. Osa esityksen termeistä oli itselle vieraampia ja niistä lisätietoa hakiessa jäljet johtivat usein Deloitten tutkimuksiin ja julkaisuihin. Davenportilla on ollut työhistoriaa Deloitten palveluksessa.

Esityksessään Davenport tunnisti analytiikan 4 aikakautta.

Vaihe 1.0 (”artisanal analytics”)

Vaiheen 1.0 (”artisanal analytics”) Davenport ajoitti alkaneen 1970-luvulla. Tämän aikakauden analytiikkavälineet ovat käytössä edelleen joltain osin. Kyse on kuvailevasta analytiikasta ja raportoinnista. Raportoinnin päätavoitteena on tukea sisäistä päätöksentekoa. Ennustavia analyysimallejakin on ja ne pohjautuvat ihmisten tekemiin hypoteeseihin. Yksi käyttökohde tälle analytiikan lajille on muun muassa varastoinventaario.

Vaihe 2.0 (big data analytics)

Vaihe 2.0 (big data analytics) ajoittuu Davenportin mukaan 2000-luvun alkuun. Analytiikan lähdemateriaalina on laaja, rakenteeton datajoukko. Tällaisen materiaalin analysointi vaati uudenlaisia laskennallisia työvälineitä.

Muun muassa Barack Obaman hallinto hyödynsi tätä analytiikkaa (esimerkiksi Issenberg (2012), How Obama’s Team Used Big Data to Rally Voters. MIT Technology Review, 19.12.2012). Osana tätä vaihetta perustettiin yrityksiä, jotka loivat data-analytiikkaan perustuvia ns. ”data-tuotteita”. Tässä vaiheessa analytiikan painopiste siirtyi tuotteisiin, joita voitiin myydä.

Vaihe 3.0 (data economy analytics)

Vaihe 3.0 (data economy analytics) käynnistyi Davenportin mukaan vuonna 2013. Hän kutsuu vaihetta myös data-talouden aikakaudeksi (data economy era). Tässä analytiikan lajissa sekoitetaan sekä perinteistä analytiikkaa ja ns. big dataa.

Analyysimateriaalia ovat esimerkiksi yritysten omiin asiakaslojaalisuusohjelmiin kertyvä data. Analytiikka on kehittynyt yhdeksi liiketoiminnan ydinalueiksi. Analyyseja ei tehdä enää manuaalisesti vaan analysointi on ns. teollistunut (industrialized): analytiikkaa tekevät koneet, analyyseja syntyy nopeammin ja toiminta on skaalattavissa eri kokoisiin yrityksiin ja tarpeisiin (Davenport, Industrialized analytics : Implications of large-scale predictive analytics models. Deloitte).

Esimerkkinä tästä analytiikasta Davenport mainitsee Ciscon ns. propensity model -analyysin, jolla yritys tekee ennusteita siitä, millä todennäköisyydellä asiakas ostaa Ciscon tuotteen (Davenport & Rosner (2016), Decoding the path to purchase Using autonomous analytics for customer mapping; Davenport, 7 Ways to Introduce AI into Your Organization. Harvard Business Review). Tätä nykyä Cisco keskittyy Davenportin mukaan ennustamaan yritystasolla, ketkä yksittäiset yritysjohtajat hankkivat Ciscon tuotteita. Kuuleman mukaan analyysi on hyvin yksityiskohtaista ja osuu hyvin kohdilleen.

Toinen esimerkki tällaista analytiikkaa hyödyntävästä yrityksestä on Procter & Gamble, jolla pääpaino analytiikassa on parantaa hallinnon päätöksentekoa. Analyytikkoja on suoraan johdon, esimerkiksi toimitusjohtajan, neuvonantajina. Sovellusalueina on esimerkiksi sosiaalisen median reaaliaikainen analysointi, jonka avulla yritys ns. pitää sormeaan asiakassuhdepulssilla ja seuraa, mikä on kuluttajien mieliala yrityksen suhteen. Davenportin mukaan Procter & Gamble on siirtymässä vaiheeseen 4.0 muun muassa myynnin optimoinnissa.

Davenportin mukaan myös General Electric hyödyntää 3.0-analytiikkamenetelmiä. Fokuksessa yrityksellä ovat data-pohjaiset tuotteet ja palvelut, joita tarjotaan yrityksen perinteisten tuotteiden (kuten junien, suihkumoottorien ja turbiinien) ohessa. General Electric on sekin siirtymässä Davenportin vaiheeseen 4.0 muun muassa koneoppimiseen pohjautuvien teknologioiden käyttöönoton myötä. Koneoppimista hyödynnetään ”digital twin” -analyysissa, jolla seurataan fyysisen esineen aiempaa ja nykyistä toimintaa ja pyritään optimoimaan suoritusta. Tällainen analyysi pohjautuu suureen, kumulatiiviseen, reaaliaikaiseen ja arkimaailmasta saatavaan mittausdataan. Tätä dataa ja sen analysointia voidaan hyödyntää muun muassa tuotantoprosessin tai tuotteiden kehittämisessä. (Industry 4.0 and the digital twin : Manufacturing meets its match. Deloitte.)

Vaihe 4.0 (cognitive analytics)

Vaiheen 4.0 (cognitive analytics) Davenport laskee alkaneen juurikin vuonna 2018. Davenport puhuu myös kognitiivisten teknologioiden, kuten tekoälyn (artificial intelligence), aikakaudesta.

Tässä vaiheessa analytiikka alkaa olla yhä itsenäisempää ja se tekee myös automatisoituja päätöksiä. Tietojärjestelmät pystyvät tekemään joitain ihmisen aiemmin hoitamia tehtäviä. Dataa analysoimalla pyritään löytämään välineitä ja ratkaisuja, joilla organisaatio saadaan toimimaan yhä tehokkaammin.

Analytiikan taustalla on (automatisoituun) koneoppimiseen perustuvia teknologioita, kuten neuroverkot (neural networks) ja syväoppiminen (deep learning), luonnollisen kielen käsittelyyn liittyviä työkaluja, erilaisten työprosessien robotisaatiota.

4.0-vaiheessa olevista yrityksistä Davenport antoi esimerkkinä Vanguardin, jonka sijoituspalveluissa yhdistyy kone- ja ihmisäly. Tekoäly hoitaa yhä isompaa osaa sijoituspalveluista ja leikkisästi Davenportin mukaan ihmisasiantuntijalle jäävät talouspsykiatriaan (”financial psychiatry”) liittyvät tehtävät.

Chileläinen kaivosyhtiö Codelco hyödyntää automatisaatiota työturvallisuuden parantamiseen. Yhtiö aloitti 1990-luvulla kauko-ohjattavilla kaivostyökaluilla ja on siirtynyt muun muassa kaivoksissa toimiviin autonomisiin kuljetusvälineisiin.

Hissiyhtiö Koneen Davenport mainitsi esimerkkinä tekoälyn tuomisesta palveluntarjontaan. Kone tekee yhteistyötä IBM Watsonin ja Salesforce.comin kanssa. Watsonin Internet of Things -teknologiaa hyödynnetään hissilaitteiden valvontaan ja toiminnan ennustamiseen. Tekoälyn avulla Kone pyrkii tunnistamaan ja ennakoimaan teknisiä ongelmia ja huollon tarvetta. Samasta asiasta on kirjoittanut myös New York Times (From Agriculture to Art — the A.I. Wave Sweeps In, 21.10.2018).

Miksi hyödyntää tekoälyä (cognitive/AI)?

Davenport mainitsi yhdeksi perusteluksi tekoälyn hyödyntämiseen sen, että ihmiseen ei aina voi luottaa ennakkoasenteiden, henkilökohtaisten taipumusten tai puolueellisuuden vuoksi. Joissain tilanteissa ihminen voi olla huono tekemään päätöksiä. Teknologia puolestaan kykenee joissain tehtävissä nopeampiin suorituksiin kuin ihminen. Tietyissä tehtävissä ihmistyövoima voi olla kalliimpaa tai tietyt tehtävät voivat olla liian tylsiä/väsyttäviä ihmiselle.

Deloitten vuonna 2018 tekemän selvityksen mukaan käytetyimpiä tekoäly-teknologioita (cognitive technologies) olivat robotiikka (prosessien automatisoinnissa; 59 %), tilastoihin pohjautuva koneoppiminen (statistical machine learning; 58 %), luonnollista kieltä prosessoivat tai tuottavat teknologiat (53 %), asiantuntija- tai sääntöpohjaiset järjestelmät (expert or rule-based systems; 49 %), syväoppimiseen pohjautuvat neuroverkot (deep learning neural networks; 34 %), robotit (physical robots (32 %).

Yleisimmät tekoälyhankkeet yrityksillä liittyvät robotiikan ja tekoälyn avulla saavutettavaan automatisointiin (robotics and cognitive automation, 47 %). Automatisoinnin kohteena ovat rutiinitehtävät tai hallinnolliset tehtävät, jotka ovat dataintensiivisiä. Tällaisessa automatisoinnissa on kyse esimerkiksi

  • sähköposteissa tai puhelinkeskuksissa olevan datan siirtämisestä muihin järjestelmiin
  • kadonneiden luottokorttien poistaminen käytöstä ja korvaaminen uudella kortilla ilman ihmistyövoiman puuttumista prosessiin
  • sijoitusraporttien tuottaminen automatisoidusti.

Toiseksi yleisimpiä hankkeita ovat tekoälyn tuottamat analyysit (cognitive insights, 37 %), jotka pohjautuvat rakenteisen dataan tilastolliseen analysointiin. Käsite ”cognitive insight” oli itselleni vieras. Muutamia kirjoituksia löytyy Deloittelta, joissa käsitettä oli avattu. Paul Roma määrittelee käsitteen näin:

Cognitive insights to uncover hidden patterns and relationships to identify new opportunities for innovation.

Aiheesta ovat kirjoittaneet myös Ryan Renner, Mark Cotteleer ja Jonathan Holdowsky (Cognitive technologies : A technical primer. Deloitte, 6.2.2018). Tätä tekniikkaa käytetään esimerkiksi reaaliaikaisessa luottokorttihuijausten tunnistamisessa.

Kolmanneksi yleisin hanke on tekoälypohjainen osallistuminen (cognitive engagement, 16 %), jossa tekoäly on joko kielellisessä tai kuvapohjaisessa vuorovaikutuksessa yrityksen asiakkaiden tai työntekijöiden kanssa. Davenport käytti esimerkkinä tällaisesta teknologiasta ruotsalaista Ada-nimistä yritystä, joka oli automatisoinut ns. entry level -tehtävät. Tekoälyn avulla yritys tarjosi muun muassa 24/7-asiakaspalvelua. Tekniikkaa käytetään yritysten sisällä henkilöstöhallinnossa tai IT-tuessa työntekijöiden esittämien kysymysten selvittämisessä.

Davenport esitti kysymykseen, automatisoidaanko seuraavaksi tietotyöläisten tehtävät? Ja vastasi: kyllä ja ei. Davenportin mukaan monia tietotyöhön liittyviä tehtäviä automatisoidaan ja voi olla työpaikkoja katoaa, mutta toisaalta voi syntyä uudenlaisia työpaikkoja, joissa työskennellään yhdessä tekoälyn kanssa. Automatisointi kytkeytyy työntuottavuuteen ja Davenport näkee yhdeksi mahdollisuudeksi pienentää automatisoinnin aiheuttamia vaikutuksia työelämään sen, että tuottavuuden myötä saaduilla voitoilla rahoitetaan työntekijöiden uudelleenkouluttautumista ja uudelleensijoittumista.

Davenport antoi omat viisi vinkkiä, mitä ihminen voi tehdä tekoäly-kaudella:

  • step in: ihmiset hallitsevat järjestelmien yksityiskohdat, heikkoudet, vahvuudet, mitä pitää kehittää
  • step up: ihmisellä on kokonaiskuva ja ymmärrys mitä automatisoida
  • step aside: ihminen voi keskittyä niihin osa-alueisiin, joilla ihmiset toistaiseksi pärjäävät koneita paremmin
  • step narrowly: ihminen voi erikoistua johonkin niche-asiaan, jota ei kannata automatisoida
  • step forward: ihminen voi rakentaa automatisoituja systeemejä.

Varsinkin listan viimeisen kohdan perusteella voi tulkita, että Davenport suhtautuu tekoälyyn myönteisesti.

Uuden teknologian vaikutusta ihmisiin Davenport pohdiskeli termiparilla automatisointi vai augmentointi (augmentation)? Davenportin mukaan tavoitteena teknologian käyttöönotossa on myös augmentointi, jossa on kyse työskentelystä yhdessä esimerkiksi tekoälyn kanssa. Tämä on mahdollinen muutossuunta, jossa ihminen ja kone tekevät yhteistyötä.

Kirjastoalalta tuontyyppinen ihminen ja kone työkavereina -esimerkki voisi olla Jyväskylän yliopiston avoimen tiedon keskuksen keväällä 2018 uusima opinnäytteiden sisällönkuvailuprosessi (Julkaisuarkisto JYX uudistuu). JYX-julkaisuarkistossa ryhdyttiin keväällä hyödyntämään Kansalliskirkastossa kehitettyä Finnaan perustuvaa ANNIF-sisällönkuvailupalvelua:

Kun opiskelija lähettää työnsä, lomake tunnistaa työn kielen ja pyytää ANNIF-palvelulta asiasanaehdotuksia, joista opiskelija valitsee sopivimmat. Tästä kertyvää aineistoa käytetään jatkossa ANNIFin kehittämiseen yhä paremmaksi. (Julkaisuarkisto JYX uudistuu)

ANNIFin kanssa pääsimme leikkimieliseen sisällönkuvailukisaan kirjastoverkkopäivillä 2017. En muista enää, mitkä olivat kisan tulokset, mutta muistan, että lupaus oli, että revanssit otetaan.

Esimerkkeinä kirjastoalan analytiikkavälineistä tulee mieleen palveluympäristön raportointipalvelu kirjastotoimelle ja CollectionHQ-analyysityökalu, joka on ollut käytössä ainakin Jyväskylän kaupunginkirjastossa (Avoin lähdekoodi yleistyy kirjastojen järjestelmissä, Kirjastolehti).

Tom Davenportin esitykselle esittivät kommenttipuheenvuorot Nina Helander ja Olli-Pekka Heinonen. Helander näki haasteeksi sen, että teknologia on erillään yrityksen muista osasista esimerkiksi johdosta. Mihin pitäisi tutkimuksessa keskittyä? Nyt tutkitaan yksittäisiä yrityksiä. Pitäisikö tutkimuksen kohteena olla alustat (platforms) ja ekosysteemit? Ovatko faktat parempia kuin tunteet, ja ovatko eettiset kysymykset faktaa vai tunnetta? Helander nosti esiin, että hyvä johtaja haluaa tehdä hyviä, oikeudenmukaisia päätöksiä ja sitä varten tarvitaan dataa ja faktoja.

Myös Olli-Pekka Heinonen käsitteli kommenttipuheenvuorossaan etiikkaa. Datan määrä kasvaa, mutta samaan aikaan voi kysyä, toimimmeko viisaammin? Mitä ylipäätään on humaanisuus tulevaisuudessa (what is humanity in the future)? Vapauttaako tekniikka ihmiset tekemään asioita joissa ihmiset ovat parhaita? Kuinka saada kokonaisvaltaisempi kuva missä ollaan ja mitä tapahtuu ja mitä pitäisi tehdä? Mitä voi oppia ja mitä voi tehdä opituilla asioilla? Kuinka tehdä eettisesti kestäviä päätöksiä? Millä toimenpiteillä emme luo uusia isoja ongelmia? Huonona esimerkkinä Heinosella oli Cambridge Analytics? Kuinka säädellä uuden teknologian käyttöä? Esimerkiksi Facebookista ei aluksi osattu arvata mitä ongelmia se toisi tullessaan. Kun Fbsi oli aikansa kasvanut, se osoittautui haastavaksi, ehkä liian isoksi säädeltäväksi.

Eettiset kysymykset kiinnostavat Davenportin mukaan yhä enemmän myös opiskelijoita, mutta esityksessään hän ei näitä kysymyksiä käsitellyt.

Johtajuussymposium 2018

Tampereen yliopistolla tänä vuonna järjestetyn johtajuussymposiumin teemana oli tiedolla johtaminen. Muutamia merkintöjäni useammassa palassa:

  1. Tim Minshallin esityksestä, joka käsitteli avointa innovointia (open innovation)
  2. Lassi Kurkijärven (Solita) esityksestä organisaatiokulttuurin merkityksestä, kun toimintatapana on avoin innovointi
  3. Tom Davenportin puheenvuorosta analytiikan ja tiedolla johtamisen historiasta, johon saimme kommenttipuheenvuorot Nina Helanderilta (tietojohtamisen professori, Tampereen teknillinen yliopisto) ja Olli-Pekka Heinoselta (pääjohtaja, Opetushallitus)
  4. Aamulehden ja JKY ry:n järjestämästä paneelista tavoitteista ja mittareista
  5. Business Tampereen paneelista digitalisaatiosta.

Rajapinnoista

Tsahi Levent-Levi, API calls, https://www.flickr.com/photos/86979666@N00/8692704103
Tsahi Levent-Levi, API calls, https://www.flickr.com/photos/86979666@N00/8692704103

Tampereen teknillisen yliopiston Ohjelmallinen sisällönhallinta -opintojaksossa tarjottiin helmikuussa vierailuluento web-ohjelmointirajapinnoista. Luennolla puhuivat OKM:n kehittämispäällikkö Jarkko Moilanen ja Tampereen kaupungin tietohallinnon edustaja Joonas Dukpa.

Moilanen pohdiskeli ohjelmointirajapintojen (application programming interface, API) merkitystä tietojärjestelmien kehittämisessä ja Dukpa kertoi Tampereen kaupungin avoin data -ohjelmasta.

Moilasen mukaan suunta on se, että maailmalla start-up-yrityksissä homma lähtee nykyään rajapintojen rakentamisesta. Rajapintoja ja pilviteknologiaa pidetään välttämättöminä digitaaliselle liiketoiminnolle.

Rajapinta ideana on vanha juttu: yhtenä aloituskohtana pidetään Roy Fieldingsin vuonna 2000 julkaisemaa väitöskirjaa Architectural styles and the design of network-based software architecture. Käännekohtana Moilanen pitää vuotta 2006, jolloin julkaistiin muun muassa sosiaalisen median verkkopalvelujen rajapintoja (Facebook API, Twitter API) ja Amazonin pilvipalveluja (Amazon S3, Amazon EC2). Vuonna 2007 telekommunikaatioteknologiaan erikoistunut yritys Twilio on kiinnostava rajapintojen näkökulmasta, koska sen liiketoimintaidea perustuu ohjelmointirajapintojen tarjoamiseen puhelin- ja tekstiviestiliikenteen hallinnointiin.

Tekninen rajapinta vain yksi osa kokonaisuutta. Kyse on ekosysteemistä, jonka muodostavat muun muassa kehittäjät, itse järjestelmä, konteksti, asiakkaat, trendit & tarpeet. Asiakkaissakin on eroa: rajapinnan asiakas eri kuin lopputuotetta käyttävä asiakas.

Verkkopalvelun tekninen arkkitehtuuri on monimutkaistunut. Vuonna 2006 voitiin verkkopalvelu-ympäristö kuvata kutakuinkin 3 palikalla, jotka olivat web-sovellus + taustalla oleva tietokanta (esim. SQL) + loppukäyttäjä. Web-sovelluksen takana oli useita rajapintoja (esimerkiksi SOAP ja JSON (esimerkiksi laskutuksessa käytetyt rajapinnat), screen scraping -”rajapinta”, WMS (esim. karttapalveluissa käytetty rajapinta), jotka osaltaan muodostavat web-sovellus-kokonaisuuden.

Vuonna 2013 rajapintoja on edelleen useita + tietokanta + yrityksen/palvelun tarjoajan ulkoinen API:en käyttö. Rajapintojen kautta tarjotaan palveluja ja dataa erilaisille web-sovelluksille, mobiili-sovelluksille ja Internet of Things -palveluille. Verkkopalvelujen tarjoajat ovat kaupallistaneet rajapintapuolen. Rajapintojen kautta haravoitavan datan jatkojalostuksessa Python on yksi ammattilaisten käytetyimmistä työkaluista.

SOAP/XML on java-lähtöinen, liike-elämän tarpeiden ehdoilla (ideointi ja määrittely) kehitetty rajapintaprotokolla. Kansallisen palveluväylän versio 6 tulee olemaan tätä, mutta data muljutellaan myös JSON-muotoon. SOAP/XML:n etuna ovat Moilasen mukaan monipuolisemmat vuorovaikutusmahdollisuudet kuin REST/JSONilla.

REST/JSON -arkkitehtuurimallin taustalla oleva ideologia edustaa standardoituun SOAP/XML:ään verrattuna joviaalimpaa, kehittäjäyhteisön pragmaattista lähestymistapaa. Malli on javascript-lähtöinen ja käytössä muun muassa tavallisissa, arkipäivän web-sovelluksissa. Malli on keveämpi ja vapaampi verrattuna SOAP/XML:ään.

Nousussa on teollinen Internet alias esineiden Internet (Internet of Things). Esineiden Internetistä on pari mainintaa kertynyt (Online 11: mobiili tuli jo ja ITK 2010: tulevaisuudesta). Tällä puolella aktiivisia ovat muun muassa Konecranes ja Kone. Esimerkiksi teollisuusnostureissa on rajapintoja kommunikointiin muiden laitteiden/järjestelmien kanssa.

Nyt kun avoimen datan kanssa ollaan jo edetty jonkin verran, seuraava nouseva trendi on mahdollisesti omadata eli my data.

Ohjelmointirajapinta on tuote. Rajapintoja on erilaisia erilaisiin käyttötarkoituksiin: Ns. sisäinen API on tarkoitettu palvelunrakentajan omaan käyttöön tarkoitettu. Kumppani-API helpottaa yhteistyötä, jossa vaihdetaan dataa tai rahaa yhteistyökumppanin kanssa. Avoin-API mahdollistaa innovoinnin ja on markkinointikeino omalle yritykselle.

Perusta näissä rajapinnoissa on kaikissa sama. Lisäominaisuuksilla ja rajoitteilla erotellaan rajapintoja toisistaan.

Käytettävyydessä tulisi ottaa huomioon myös rajapintojen käytettävyys. Ohjelmistosuunnittelussa käyttäjä huomioidaan: käyttöliittymä (user interface eli UI) ja käyttäjäkokemus (user experience eli UX). Rajapintojen suunnittelussa pitäisi saada yhdeksi ulottuvuudeksi rajapintojen käyttäjäkokemus, APX. Onnistunut rajapintojen käyttäjäkokemus syntyy Moilasen mukaan siitä, että esimerkiksi
rajapinta mahdollistaa itsepalvelun (kehittäjä pääsee omin avuin alkuun)
rajapinnan käytössä ovat helpot, selkeät ja matalat integrointiaskeleet. TTFHW:n (time to first hello world) pitäisi olla mahdollisimman lyhyt
dokumentaatio löytyy
tarjolla on rajapintaa hyödyntäviä esimerkkikoodeja. Esimerkiksi hackathonit ovat mainio tilaisuus, jossa voidaan tuottaa esimerkkikoodia
tuki- ja palautekanava ovat tarjolla (esimerkiksi Stack exchange, Quora)
rajapinnan käyttämiselle on selkeä käyttäjäsopimus. Tämän ei pitäisi olla ensimmäinen, koska esimerkiksi 30 sivua juristeeriaa on hyvä tapa karkoittaa kehittäjät.

Keskeisiä ohjelmointirajapintojen kuvauskieliä ovat

Avoin API on avoimesti dokumentoitu, käyttöönotettava, testattavissa. Rajapinta-asiat pitäisi huomioida hankintavaiheessa, koska nyt hankinnassa tehdyt virheet voivat heijastua monen vuoden päähän. Avainasioita on rajapinnan yksinkertaisuus ja intuitiviisuus, kevyiden Internet-teknologioiden (esim. JSON) hyödyntäminen. Rajapinnat ovat sosiaalisen median, pilvipalveluiden ja mobiilimaailman moottori. Rajapintojen varaan osin rakentuvia trendejä ovat laitteet (Internet of Things), reaaliaikaisuus, automaatio ja ääni. Helpompia pilvipohjaisia ohjelmointirajapintojen julkaisutyökaluja on tulossa.

API:Suomi

Vuonna 2014 perustettu API:Suomi-palvelu sisältää Suomessa tarjolla olevista rajapinnoista listauksen, jota täydennetään. Rajapintojen hyödyntämisen helpottamiseksi on käynnistetty useita muita oheisprojekteja: esimerkiksi API-lähettiläät levittävät tietoa tarjolla ja tiedossa olevista rajapinnoista sekä rajapintojen hyödyntämisen hyvistä käytänteistä. API starter kit on Google Drivessä työn alla oleva johdatus rajapintojen käyttöön. Ideatasolla on API design guide, jolla on kytkös palvelukanava-hankkeeseen ja virolaisten X-roadiin (Jarkko Moilasen bloggaus aiheesta).

API:Suomi-palvelun tarkoitus on myös antaa luonnehdintoja rajapinnoista samaan tapaan esimerkiksi Tripadvisor rankkaa hotelleja.

Jälkimausta

Lukukokemuksena kirja on hyvä. Vaikka en ole kaikesta samaa mieltä Morozovin kanssa, se on sanottava, että Morozov käyttää aikaa perusteluihin ja esimerkkejä on runsaasti. Ne ovat ajankohtaisia ja konkretisoivat ongelmia, joita Morozov näkee teknologisessa kehityksessä ja kulttuurissa. Morozov houkuttelee argumenteillaan hakemaan lisätietoja.

Paikoin kirjan mustavalkoisuus puuduttaa. Esimerkiksi koneoppimisesta löytyy hyviäkin kokemuksia: http://www.tietoviikko.fi/kaikki_uutiset/kun+kone+oppii+quotloytaa+ratkaisun+jota+tutkija+ei+itse+olisi+tullut+ajatelleeksiquot/a965877

Ellen Ullman (Big Data Is Watching You) nostaa esiin Morozovin tavan yliyksinkertaistaa teknologian parissa työskentelevät yhdeksi nörttilaumaksi, joista hän käyttää geek-termiä. Hän esittää nörtit tasalaatuisena joukkona, joka kritiikittä marssii teknologisesta ratkaisusta toiseen. Tämä ei tee Ullmanin mukaan oikeutta tälle ryhmälle.

Morozovin kysymykset/problematisoinnit ovat joka tapauksessa tärkeitä. Viimeisimpiä vastaanosuneita kirjan teemoja liipanneita uutisia oli toiveikas: Jarrua poliisivaltiolle: Tätä kaupunkia isoveli ei pääse valvomaan (Tekniikka ja talous). Yhdysvaltalainen kaupunki päätti supistaa valvontajärjestelmäänsä.

Kirjastolaisten soisin tämän kirjan lukevan. Mediakasvatusta selkeästi tarvitaan eikä hakukoneille passaa jättää tiedonhakumonopolia. Meille teknologiaan uskoville Morozov tarjoilee asiallisen ja varteenotettavan suosituksen: tekniikka pitää kyseenalaistaa ja sitä pitää arvioida kriittisesti. Morozovin toiveena on, että vaikka solutionismi olisi vääjäämätöntä, meidän pitäisi varmistaa, että tämä solutionismi olisi itsereflektoivaa, jopa neuroottista. Solutionismin puutteet paljastuvat vain arvioinnin ja epäilyn kautta.

[schema type=”review” url=”http://clickherethebook.com/” rev_name=”To Save Everything, Click Here” author=”Jevgeni Morozov” ]

Ratkaisuvaihtoehtoja

Morozov ei ole torppaamassa avointa dataa ja avointa hallintoa. Datan avaamisella voi olla monenlaisia seurauksia, joten Morozov toivoo, että avoimuuteen siirryttäisiin harkiten ja tietoisina niistä sosiaalisista ja kulttuurisista tekijöistä, jotka vaikuttavat eri instituutioiden datavarantojen taustalla. Morozov kyselee kompromissien perään: avoimuus ei saisi olla tyranniaa, jossa instituutiot pakotetaan avoimuuteen. Tarvittaessa pitää tehdä kompromisseja.

Innovoinnin ongelmana Morozov puolestaan pitää sitä, että innovointi nähdään helposti vain positiivisia vaikutuksia sisältävänä. Tälläkin osa-alueella hän toivoo valmistautumista odottamattomien seurausten ilmaantumiseen.

Morozov viittaa tutkimukseen, joka selvitti tutkimusten suhtautumista innovaatioihin. Tutkimuksista vain 26 %:a pohti innovaatioiden negatiivisia tai ei-toivottuja seurauksia. (Sveiby, Gripenberg ja Segercrantz, ”The Unintended and Undesirable Consequences: Neglected by Innovation Research” teoksessa Challenging the Innovation Paradigm, 2012.)

Morozov taustoittaa innovaatiopohdintojaan Benoît Godinin innovaatiotutkimuksilla (esim. Benoît Godin (2008), Innovation : The History of a Category). Mielenkiintoista on, että alunperin innovaatiolla oli negatiivisia merkityksiä: innovaattori oli kerettiläinen, vallankumouksellinen, huijari. Termi sai toisenlaisia sävyjä Godinin mukaan 1939 itävaltalais-yhdysvaltalaisen taloustieteilijä Joseph Schumpeterin myötä. Schumpeter määritteli innovaation tärkeäksi tekijäksi talouden muutoksissa. Innovaatioiden avulla yritykset pystyivät tekemään rakentavia muutoksia omiin liiketoimintamalleihinsa (Emma Green (2013), Innovation : The History of a Buzzword).

Verkkopalvelujen läpinäkymättömyys on kasvava ongelma. Taustalla on monenlaisia palveluntarjoajia ja välikäsiä, joiden toimintaa ei välttämättä kukaan valvo. Sosiaalisen median verkkopalveluja käyttävälle yksityisyyden suojelemisesta voi tulla iso kysymys. Suojeltavaa voi syntyä joko siten, että käyttäjä tekee jotain hölmöyksiä verkossa, mutta yksityisyyttä voi rikkoa jokin meidän kontrollimme ulottumattomissa oleva toimija. Esimerkkinä tällaisesta Morozov antaa tietomurron sosiaalisen median palveluun, jossa käyttäjien yksityistä informaatiota pääsee vääriin käsiin. Ongelmia voi aiheuttaa tiedonlouhinta, jossa tehdään yksilöistä päätelmiä useita eri informaatiolähteitä analysoimalla.

Mikäli kirjan teemat kiinnostavat, kannattaa lukea kirjan lisäksi Morozovin artikkeli The Real Privacy Problem (MIT Technology Review 6/2013, s. 32 – 43). Artikkelissaan Morozov pohtii näitä samoja teemoja, data-intensiivistä ongelmanratkaisua, datan keräämistä/itsensä monitorointia, datan jakamista ja yksityisyysongelmia. Kuinka voimme varmistaa, että data-intensiivisessä maailmassa kontrolloimme meitä koskevaa dataa? Morozovilla on neljä lääkettä näihin vaivoihin:

  1. meidän pitäisi politisoida keskustelu yksityisyydestä ja informaation jakamisesta. Meidän pitäisi tarkastella kriittisesti dataintensiivisiä ongelmanratkaisuja ja paljastaa näissä ratkaisuissa mahdollisesti piilevät epädemokraattisuutta lisäävät tekijät. Morozovin mukaan toisinaan voi olla parempi hyväksyä riskejä, epätäydellisyyttä ja tehottomuutta, jotta voimme varjella demokratiaa.
  2. meidän pitäisi opetella ”sabotoimaan” järjestelmää. Joissain tilanteissa voisi olla parempi olla jakamatta informaatiota tai esimerkiksi olla monitoroimatta omia urheilusuorituksiaan, terveydentilaa jne.
  3. tarvitsemme Morozovin mukaan provokatiivisempia sähköisiä palveluja. Hänen mielestään ei aina ole riittävää tarjota käyttäjälle mahdollisuutta jakaa informaatiotaan tai olla jakamatta. Verkkopalvelujen pitäisi paljastaa informaation jakamiseen liittyviä poliittisia ulottuvuuksia.
  4. Morozovin mielestä ei riitä, että taistellaan vain yksityisyyden puolesta. Lisäksi pitäisi huolehtia demokratian tilasta.

Morozovin yksi viesti on se, että teknologian avulla ei saisi poistaa yksilön velvollisuutta tehdä omia valintoja. Hän lainaa José Ortega y Gassetia

”to be an engineer… is not enough to be an engineer”. (The Good Life in a Technological Age)

Ihmiselämään mahtuu koko skaala erilaisia muuttujia ja huomioitavia asioita tehokkuuden lisäksi. Morozov ei ole kieltämässä teknologisia ratkaisuja sinällään, vaan hän toivoo vaihtoehtoisia, avoimia ratkaisuja, joiden avulla saadaan ratkaistua ongelmia, mutta jotka samalla mahdollistavat sen, että ihmiset joutuvat edelleen tekemään vaikeita valintoja, mikä erottaa ihmisen koneesta.

Morozov jatkaa tätä ajattelua edelleen lainaamalla Peter Singerin pohdintaa altruismista. Teknologian ei saisi poistaa tarvetta altruismille meissä. Ihmisessa olevan hyvän pitäisi olla kovalla käytöllä:

”Why should we not assume that altruism is more like sexual potency – much used, it constantly renews itself, but if rarely called upon, it will be begin to atrophy and will not be available when needed?”

[schema type=”review” url=”http://clickherethebook.com/” rev_name=”To Save Everything, Click Here” author=”Jevgeni Morozov” ]

Data-intensiivisyys, itsensä monitorointi, datan jakaminen

Verkkomaailman trendeistä Jevgeni Morozov nostaa esiin muun muassa data-intensiivisyyden ja itsensä monitoroinnin. Data-intensiivisyydellä hän tarkoittaa kehitystä, jossa toiminta verkossa kytkeytyy yhä tiiviimmin datan ympärille. Data-intensiivisyydellä on kytkös hyvin toimiviin algoritmeihin. Verkkopalveluihin rakennettujen erilaisten suosituspalvelujen taustalla ovat algoritmitekniikat. Tällaisella tekniikalla tuotetut suositukset ovat sitä parempia, mitä enemmän ne osuvat oikeaan eli tarjoavat jotain sellaista, jota vastaanottaja tarvitsee/kaipaa. Tällaisessa rakennetussa serendipiteetissä (engineered serendipity) piilee omat ongelmansa:

Doing this badly is easy – just pick random items and suggest them to customers. No one would do this though; it would likely be seen as yet another form of spam. Doing it well, however, would require companies to collect even more data about customers than they already do, so the quest for engineered serendipity can become just another excuse for Facebook and Amazon to collect more information and hone their algorithms. More disturbingly, it also means giving technology companies an even greater role in civic life at a time when they haven’t shown any respect for the responsibilities they have already. (290)

Erilaisen verkonkäyttäjää koskevan datan kokoamisen, tuon datan hyödyntäminen algoritmein ja jakaminen verkossa ja muu datakarnevaali muodostaa mielenkiintoisen kimpun. Morozovin mukaan tähän kaikkeen liittyy myös yhdenlainen ”pakko” olla sosiaalisessa mediassa. Sosiaalisessa mediassa läsnäolo on toki vapaaehtoinen valinta, mutta Morozovin mukaan ihmisiin kohdistuu paine olla sosiaalisessa mediassa (edellyttäen että elää sellaisessa maanosassa, jossa Internet on tarjolla). On normaalia käyttää sosiaalisen median palveluja:

Think of it this way: all of us have a right not to have a cell phone or a Facebook profile. But that right means little in a society where almost everyone has both those things, for people without cell phones or Facebook profiles are presumed to be weird outliers with their own reasons for staying low – and those reasons can’t be good, can they? Law enforcement agencies already view those without cell phones as potential terrorists or drub dealers – this, if anything, turns your ”right” to keep away from certain technologies into a joke. A similar set of interpretations has already emerged around the digital refuseniks who stubbornly resist opening a Facebook account. (239)

Data-intensiivisyyden yksi ilmenemismuoto on lisääntynyt itsemonitorointi (self-monitoring, self-tracking). Sinällään itsensä monitoroinnissa ei ole mitään uutta. Ana Crisostomo (2014, The Quest for Happiness in Self-Tracking Mobile Technology) puhuu omassa tutkimuksessaan Sanctorius Sanctoriuksesta, italialaisesta tutkijasta, joka eli 1500–1600-luvulla ja mittasi muun muassa painoaan, nauttimansa ravinnon ja jätöstensä määrää 30 vuoden ajan.

Monitorointi on yleistynyt biometristen sensoreiden teknisen ja monitorointiin keskittyvien palvelujen kehityksen, verkkopalveluiden tallennustilan kasvun ja erilaisten verkkoon kytkettävien mobiililaitteiden käytön lisääntymisen myötä. Yksi esimerkki näistä teknologioista on Bitalino, DIY-rakennussarja, jolla voi rakentaa erilaisia omien elintoimintojen mittausvälineitä. Itsensä monitoroinnilla Morozov tarkoittaa esimerkiksi omien sijaintitietojen tai omien urheilusuoritusten tallentamista ja ilmoittamista verkossa. Monitorointi liittyy esimerkiksi oman kunnon ylläpitämiseen, ravintoon ja terveydentilaan liittyvien muuttujien tarkkailuun. Crisostomo kiteyttää monitoroinnin erääksi tavoitteeksi itsetuntemuksen datan avulla (”self knowledge through data”).

Crisostomo tekee yhteenvetoa tutkimuksista, jotka pohtivat taustalla olevia mahdollisia ideologioita. Erään tulkinnan mukaan oma keho mielletään yhdeksi resurssiksi muiden joukossa ja itsensä monitorointi on yksi väline hallita tätä resurssia. Tässä ajattelutavassa sairaus on estettävissä oleva ei-toivottu tila.

Morozov näkee monitoroinnissa ja sen yleistymisessä omat uhkansa:

The danger here is quite obvious: if you are well and well-off, self-monitoring will only make things better for you. If you are none of those things, the personal prospectus could make your life much more difficult, with higher insurance premiums, fewer discounts, and limited employment prospects. (240)

Myös Crisostomo käsittelee data-intensiivisyyttä ja yksilöä koskevan datan kokoamista. Tällaisen datan määrän lisääntyminen voi johtaa henkilökohtaisen identiteetin uudelleenmäärittelyyn. Itsemonitoroinnin myötä datavarantoihin kertynyt datamassa voi kertoa meistä enemmän kuin mitä pystymme itse analysoimaan itseämme.

Data-intensiivisyydestä pääsee kätevästi pohtimaan muistia ja muistamista: kuten Crisostomo kirjoittaa, yhtenä tulevaisuuden mahdollisuutena on datavarannoista syntyvä kaikkialla läsnäoleva, virheetön muisti (an omnipresent flawless memory). Morozov päätyy pohtimaan samoja kuin John Peterskin. Olisiko unohtaminen toisinaan hyväksi:

Is there really no space for deception in our dealings with others or ourselves? Could deception, like forgetting, be productive in sustaining – perhaps even enabling – a more moral life? As philosopher David Nyberg points out, ”Deception is not merely to be tolerated as an occasionally prudent aberration in a world of truth telling; it is rather an essential component of our ability to organize and shape the world, to resolve problems of coordination among individuals who differ, to cope with uncertainty and pain, to be civil and to achieve privacy as needed, to survive as a species and to flourish as persons”.

[schema type=”review” url=”http://clickherethebook.com/” rev_name=”To Save Everything, Click Here” author=”Jevgeni Morozov” ]

Algoritmeista

Morozov käsittelee kirjassaan runsaasti automaattiseen päättelyyn käytettyjä algoritmeja ja nostaa esiin ongelmatilanteita, joissa algoritmi tekee pohja-aineistostaan vääriä päätelmiä.

Yhtenä esimerkkinä on Googlen ja Guernica-nimisen julkaisun nokkapokka. Guernica-verkkojulkaisu käsittelee politiikkaa, kirjallisuutta ja taidetta. Guernicaan ovat kirjoittaneet muun muassa Noam Chomsky, Amartya Sen, Arundhati Roy ja Zadie Smith. Julkaisun tulonlähteitä ovat esimerkiksi lukijoilta saadut lahjoitukset ja Googlen AdSense-ohjelman kautta saadut mainostulot.

Googlen kanssa sukset menivät ristiin, kun Guernica julkaisi Clancy Martinin kirjoituksen ”Early Sexual Experiences”. Martinin kirjoitus käsittelee juuri sitä aihetta, johon otsikko viittaa. Ongelma syntyi siitä, että Googlen käyttämä verkkosivujen sisältöjä analysoiva algoritmi tulkitsi Martinin kirjoituksen sopimattomaksi. Tämä johti siihen, että Google poisti mainokset Guernican sivuilta. Samalla katkesi myös Guernican mainostulovirta. Valitukset eivät tuottaneet tulosta. Tapauksesta on kirjoittanut myös Joel Whitney (Censored by Google, Boston Review).

Morozov kritisoi Googlen luomaa kuvaa itsestään todellisuuden peilinä. Esimerkkinä hänellä on muun muassa Googlella tuotesuunnittelua johtaneen Marissa Mayerin haastattelulausunto Googlen tavoitteista:

”We’re trying to build a virtual mirror of the world at all times.”

Hakukonetta ei saisi ajatella muusta maailmasta irrallaan olevana, maailmaa objektiivisesti tarkkailevana järjestelmänä. Google on Morozovin mukaan samantapainen todellisuutta muokkaava järjestelmä kuin sanomalehdet, radioasemat ja televisiokanavat. Nämä järjestelmät muokkaavat todellisuutta esimerkiksi nostamalla esiin tiettyjä asioita tai näkökulmia asioihin. Objektiivisuus ei synny siirtämällä erilaisia tehtäviä koneiden ja tietojärjestelmien hoidettavaksi.

Morozov havainnollistaa algoritmien todellisuutta muokkaava vaikutusta Twitterin Trends-toiminnolla. Trends-toiminto perustuu algoritmiin, joka erilaisin säännöin päättelee twiiteistä, mitkä aiheet ovat nousemassa trendeiksi. Tyypillinen kuvio Twitterissä on se, että kun aihe nousee trendiksi, se saa yhä enemmän huomiota ja sen trendikkyys kasvaa. Morozov määritteleekin Twitterin pikemminkin todellisuutta luovaksi koneeksi, kuin todellisuutta vain havainnoivaksi kameraksi.

Helmikuussa 2014 Pirkanmaa pakeni trendikartan analyysia.
Helmikuussa 2014 Pirkanmaa pakeni trendikartan analyysia.

Algoritmit ja sisällöntuotanto

Tekstintuottaminen koneellisesti ei ole ihan uusi asia. Aihetta on käsitellyt myös Steven Levy (Can an Algorithm Write a Better News Story Than a Human Reporter?, Wired, 2012). Uutistuotannossa tekstintuottamista on jo automatisoitu. Yksi tällaista palvelua tarjoava yritys on Narrative Science.

Helsingin Sanomien mukaan Amazon on yrittänyt automatisointia teosten kääntämisessä. Tulokset ovat jääneet heikonlaisiksi. Voidaanko sanataidetta automatisoida isossa mittakaavassa kaupallisesti? Morozov arvioi tällaisen olevan mahdollista tulevaisuudessa vaikkapa niin, että Amazon ryhtyy tuottamaan sisältöjä, jotka se laatii lukijoiden lukutottumusten pohjalta.

Morozovin ajatuskuvio menee näin: Amazon kykenee tallentamaan Kindle-lukulaitteidensa avulla informaatiota siitä, millaisia lukutottumuksia Kindlen käyttäjillä on. Mikäli informaatio pitää sisällään tiedon esimerkiksi siitä, mitä sanoja haetaan lukulaitteen sanakirjasta, mitä tekstinkohtia sähkökirjoista alleviivataan useimmin, kauanko sähkökirjan lukeminen kestää jne, voi Amazon tällaiseen informaatioon pohjaten rakentaa palvelun, jossa tekstintuottaminen on automatisoitu:

Nothing prevents Jeff Bezos from taking such knowledge and churning out books automatically, bypassing the authors completely and offering such a personalized offering – pushing all the right emmotional and intellectual buttons for each reader – so that no bought book goes unread. A growing number of newspapers and magazines already turn to companies like Narrative Science to supply them with articles – mostly about sports and finance – produced by algorithms. (172)

Tällainen tekstiautomaatti tuottaisi käyttödatan pohjalta sellaisia tekstejä, jotka täyttävät suositun tekstin kriteerit.

Algoritmien ongelma

Morozov tiivistää ongelmat kahteen kohtaan. Ensimmäinen on algoritmien oletettu objektiivisuus. Algoritmit ovat jonkun rakentamia, emmekä voi tietää algoritmin tekijän mahdollisista ennakkoasenteista ja oletuksista esimerkiksi rikollisuuden yleisyydestä tietyillä asuinalueilla tai tietyissä ihmisryhmissä. Toinen ongelma on algoritmien läpinäkymättömyys: emme esimerkiksi voi tutkia hakukoneiden algoritmeja. Tätä perustellaan – ymmärrettävästikin – liikesalaisuuksilla.

Mikäli sensorointi ja rikosten ehkäisy valvontajärjestelmien avulla yleistyvät, voivatko näiden sovellusalueiden tuotteet olla läpinäkymättömiä, Morozov kysyy. Mikäli ennakoivan kontrolloinnin (predictive-policing) työvälineet rakentaa yksityinen yritys, tämä voinee olla mahdollista. Morozov kertoo algoritmien olevan yhä enemmän käytössä yhdysvaltalaisessa oikeusjärjestelmässä:

And algorithms increasingly dominate many other parts of our legal system; for example, they are also used to predict how likely a certain criminal, once on parole or probation, is to kill or be killed. Developed by a University of Pennsylvania professor, this algorithm has been tested in Baltimore, Philadelphia, and Washington DC. Such probabilistic information can then influence sentencing recommendations and bail amounts, so it’s hardly trivial. (184)

Meillä yleisissä kirjastoissa tällaista algoritmiikkaa edustavat verkkokirjastojen lisää samankaltaisia teoksia -tapaiset listat. Näiden kanssa ei tällä hetkellä osaa olla huolissaan siitä, että algoritmien kätköissä muhisi puolueellisuuksia. Ennemminkin miettii missä määrin automatisoidut listat tai relevanssin mukainen lajittelu osoittavat oikeaan suuntaan.

Esimerkkinä läpinäkymättömyysongelman ratkaisusta Morozov esittää rahoitusalalle kehitetyn mekanismin, jolla valvotaan algoritmista kaupankäyntiä. Kuvio on rakennettu niin, että ulkopuolinen taho tekee säännöllisiä auditointeja, joilla arvioidaan algoritmiseen kaupankäyntiin valmistettuja tietokonejärjestelmiä. Oma kysymyksensä on se, millä elämän osa-alueilla tarvitaan vastaavaa varmistusjärjestelmää. Hakukoneiden algoritmit? Verkkokauppojen algoritmit? Morozov alistaisi tälle tarkastelulle erilaiset ennakoivan kontrolloinnin järjestelmät. Sosiaalisen median palvelujen pitäisi määritellä standardit sille, kuinka paljon ne käyttävät ennakoivaa kontrollointia, kuinka pitkälle ne profiloivat käyttäjiään ja mitä dataa jakavat ulkopuolelle, esimerkiksi viranomaisille.

[schema type=”review” url=”http://clickherethebook.com/” rev_name=”To Save Everything, Click Here” author=”Jevgeni Morozov” ]

Solutionismista

Morozovin kirjassa myrskyn ytimessä on solutionismi. Termi tuntuu olevan sukua teknofilialle (technophilia). Morozov määrittelee solutionismiksi ajattelutavan, jossa sopivin ohjelmin, algoritmein, robotein teknologia voi ratkaista ihmiskunnan ongelmat tehokkaasti. Näitä ajatuksiaan Morozov esittelee Ian Tuckerin haastattelussa. Solutionistikritiikissään Morozov kirjoittaa useamman kerran solutionistien ratkomista ”ongelmia”, jotka eivät Morozovin mukaan ole ongelmia ensinkään.

Morozov puhuu ns. tuplaklikkaus-ratkaisuista, joista esimerkkinä ovat Totuuskakkulat eli the Truth Goggles. Totuuskakkulat on mainio esimerkki kirjastolaisen näkökulmasta, koska se iskee juuri sille sektorille, jossa kirjasto operoi mediakasvatushankkeillaan.

Kyse on MIT-opiskelijan opinnäytteestä eli selaimessa toimivasta sovelluksesta, joka vertaa verkkosivulla esitettyjä väitteitä PolitiFact-tietokannan informaatioon. Noiden vertailujen pohjalta sovellus tekee arvionsa sivulla esitetyn väitteen todenmukaisuudesta. Toimintatapaa avaa demo: http://truthgoggl.es/demo.html

Vaikka tietyin varauksin Totuuskakkulat voivat auttaa sivustojen väitteiden totuudellisuuden arvioinnissa, ongelmallista tässä palvelussa on se, että lähdekriittisyys on ulkoistettu PolitiFactille ja Truth Goggles -sovelluksen tekijälle. Morozov esittää hyvän kysymyksen:

But who will watch the truth hunters and the innovators? (119)

Morozov analysoi retoriikkaa, joka hänen mukaansa on tyypillistä solutionistista puheenpartta. Toinen näistä strategioista on innovaatiopuhe. Toinen on työkalupuhe. Morozovin mukaan innovaatiopuheessa innovaatiot ovat lähtökohtaisesti hyviä, huolimatta niiden sosiaalisista tai poliittisista seurauksista. Työkalupuhe pyrkii pitämään teknologiakeskustelun kohteena työvälineet ja siitä miten ne voimauttavat käyttäjänsä.

Morozov ei pidä kummastakaan retorisesta keinosta:

Both kinds of talk impoverish our debate about digital technologies; both must be recognized early on and resisted. (167)

Morozov haluaa kritiikkiä innovaatio- ja teknologiakeskusteluun.

Morozov ottaa käsittelyyn muun muassa Kevin Kellyn, joka ei pääse helpolla. Kellyn tapa nähdä teknologia autonomisena voimana ja hänen muut pohdintansa johtavat Morozovin rinnastamaan Kellyn natseihin. Morozov vertaa näitä Kellyn ajatuskulkuja natsijohtaja Fritz Todtin pohdiskeluihin teknologian ja luonnon suhteesta.

Tuntematta Todtin teknologiaa koskevia filosofisia pohdintoja tarkemmin pistää natsivertailu nikottelemaan. Väittämät ovat tällä kohtaa rankkoja, vähän liiankin.

[schema type=”review” url=”http://clickherethebook.com/” rev_name=”To Save Everything, Click Here” author=”Jevgeni Morozov” ]

Mikä pelastaa kenet ja miten?

Teknologian yhteiskunnallisia vaikutuksia pohtiva Jevgeni Morozov julkaisi viime vuonna teoksen To save everything, click here : the folly of technological solutionism (2013).

Morozovin ote teknologiaan on kriittinen. Oskari Onninen kuvailee Morozovia kyberpessimistiksi, ja tämä termi kuvaa kohdettaan erinomaisesti. Morozov on aktiivinen monilla foorumeilla. Osa hänen artikkeleistaan löytyy täältä: http://evgenymorozov.com/writings.html

Hänen esikoisteoksensa on The Net Delusion : The Dark Side of Internet Freedom (2011). Arvion teoksesta on julkaissut Ulkopolitiikka-lehti. Uusimmasta teoksesta on julkaistu useampia arvioita:

Morozov kritisoi koko joukon Internetissä vaikuttavista ilmiöistä. Osansa saavat muun muassa algoritmeihin pohjautuvat teknologiat, big data ja tiedonlouhinta, avoin data -liike, joukkouttaminen. Erityiskohteenaan hänellä on ihmisryhmä, joka uskoo vahvasti teknologian mahdollisuuksiin. Siis jonkinlaiset teknofiilit, joita Morozov kutsuu solutionisteiksi.

Solutionistien lisäksi Morozov antaa John Petersin tavoin kolipottua verkkoympäristössä toimiville yrityksille, kuten Amazonille ja Googlelle. Morozovin teos on mielenkiintoinen. Seuraavissa erissä pari merkintää teemoista:

  1. Solutionismista
  2. Algoritmeista
  3. Data-intensiivisyys, itsensä monitorointi, datan jakaminen
  4. Avoin data, avoin hallitus
  5. Big data ja solutionismin kritiikkiä
  6. Joukkoistaminen ja MOOCit
  7. Ratkaisuvaihtoehtoja
  8. Jälkimausta

[schema type=”review” url=”http://clickherethebook.com/” rev_name=”To Save Everything, Click Here” author=”Jevgeni Morozov” ]