Kun musta kuningatar kohtaa mustan joutsenen – tiedon käyttö vakuutuksessa vaatii eettistä pohdintaa

Netflixin tuottamassa Musta kuningatar -sarjassa nuori nainen murtautui shakkimaailman tietoisuuteen ja peittosi lopulta kaikki vastustajansa. Menestyminen edellytti erilaisten pelien, aloitusten ja siirtojen, analysointia ja oppimista.  

Shakin ja joidenkin muidenkin pelien maailmaa ovat järkyttäneet uutiset, joiden mukaan tekoälysovellukset ovat muuttuneet voittamattomiksi vastustajiksi. Kasvanut tiedon käsittelykapasiteetti ja kehittyneet tavat ohjelmoida haastavat ihmisen kyvyt hallita näitä monimutkaisia pelejä. Tekoälyn menestys on saanut monet kysymään, tarvitaanko ihmistä kohta enää mihinkään. 

Vakuutusala on ollut kaikenlaisen tiedon ja tietoteknologian suurkäyttäjä koko historiansa ajan. Menneessä maailmassa tieto oli epätarkkaa ja kallista ja sen käsittely oli hidasta ja edelleen kallista. Puutteet rajoittivat sitä, miten tehokkaasti vakuutusperiaatteen mukaista riskinjakoa voitiin toteuttaa. 

Tietoteknologian nopea kehitys on jo muuttanut ja edelleen muuttaa tilannetta. Digitaalisessa muodossa olevan datan määrä kasvaa räjähdysmäisesti ja sen käsittely nopeutuu samalla, kun kustannukset alenevat. Kehitys on huimaa, ja sen lopputulos luultavasti ylittää kaikki ennusteet. 

Kehitys tarjoaa huomattavia mahdollisuuksia harjoittaa vakuutustoimintaa aiempaa paremmin ja tehokkaammin. Ihmiset voivat toivottavasti saada edullisesti vakuutusturvaa yhä moninaisempiin tarkoituksiin. Tarkkuuden parantuminen ei poista vakuutuksen tarvetta: ennuste voi olla ratkaisevasti aikaisempaa tarkempi, mutta itse vahingon toteutuminen säilyy sattumanvaraisena. 

======
Kehitys tarjoaa huomattavia mahdollisuuksia harjoittaa

vakuutustoimintaa aiempaa paremmin ja tehokkaammin.
Ihmiset voivat toivottavasti saada edullisesti
vakuutusturvaa yhä moninaisempiin tarkoituksiin.
======

Kehitys ei koskaan, kuten ei tässäkään tapauksessa, ole riskitöntä. Käytettävät mallit saattavat osoittautua virheellisiksi. Nopea ja tehokas tekniikka saattaa aiheuttaa virheellisen mallin laajan käytön ennen kuin sen ongelmat tiedostetaan. 

Analytiikka voi aiheuttaa myös ongelmia tiedon käytön reiluudessa. Sinänsä puhtain tarkoitusperin voidaan aiheuttaa tilanteita, joissa vakuutuksessa käytetty analytiikka aiheuttaa syrjintää. Vakuutusalalta edellytetään korkeita eettisiä periaatteita, jotta tietotekniikan mahdollisuudet osataan vastuullisesti käyttää asiakkaiden hyväksi ja mahdolliset syrjinnän piirteet kitketään tehokkaasti. 

Voiko tämän eettisen valvonnan antaa tekoälyn tehtäväksi? Tuskin, ainakaan vielä näköpiirissä olevassa tulevaisuudessa. 

Etiikka on nimittäin haasteellinen alue. Nykyisin automatisointi vaatisi, että löydettäisiin yksiselitteiset eettiset periaatteet, joiden mukaan voidaan toimia. Tällaisia järjestelmiä on historian kuluessa kehitetty useampia. Esimerkkejä ovat Kantin moraalinen imperatiivi tai Benthamin utilitarismi. Tällaiset mallit johtavat kuitenkin jo sisäisesti ristiriitaisiin tilanteisiin. Lisäksi ne eivät ole yhteismitallisia keskenään. Etiikan automatisoinnin pohjaksi ei löydy sääntöjä, jotka takaisivat onnistumisen. Mahdollista toki on, että tekoälyn kehityksen jatkuessa löydetään parempia keinoja taata eettisyys teknologian tarjoamissa ratkaisuissa. 

Kirjoitus lähti liikkeelle Netflix-sarjan Mustasta kuningattaresta. Inhimilliset saavutukset shakissa herättävät kunnioitusta. Samalla tekoäly ylittää ihmisten kyvyt shakissa ja vastaavissa peleissä. Tekoäly pärjää hyvin ongelmissa, joissa säännöt säilyvät ennakoitavina. Tekoäly voittaa niin kauan, kun shakkilaudalla on kiellettyä mennä pelilaudan ulkopuolelle tai ratsu ei voi muuttua kenguruksi. Se voi laskea kaikki vaihtoehdot ihmistä nopeammin ja valita voittavat strategiat. 

Mutta entäpä kun säännöt muuttuvat kesken kaiken? Mitä tapahtuu, kun peliin tulee mukaan musta joutsen, jota ei pitänyt olla olemassakaan? 

Vakuutustoiminnassa musta joutsen puuttuu peliin eettisten ongelmien kautta. Ongelmat ovat suoraviivaisia niin kauan, kun säännöt ovat selvät ja kaikki tapaukset riidattomasti luokiteltavissa. Tällaiset ongelmat saadaan tekoälyllä ratkaistua oikein. Osittain myös tiukat rajat rikkovat tapaukset voidaan koneoppimisen kautta saada hoidettua. 

Tiedonkäytön etiikka tuo näkyviin mustia joutsenia. Niiden kanssa musta kuningatar ei ainakaan vielä saa apuunsa täydellistä tekoälyä. Inhimillinen päätösten tekijä säilyttää perustellun paikkansa. Etiikkaa ei voi ohjelmoida vaan sen mukaan toimiminen vaatii inhimillistä ajatusta. Pyrkimyksessä tekoälyn ja tiedon eettiseen käyttöön törmätään uusiin tilanteisiin, joissa toimimiseen kasuistiset mallit eivät riitä.  

Eettisen toiminnan peruskiveksi muodostuu pyrkimys reiluuteen, kun sovitetaan yhteen toisaalta yksittäisen asiakkaan ja toisaalta vakuutuskollektiivin edut. Reiluus muodostuu lainsäädännön vaatimuksista ja erilaisista sopimuksista ja suosituksista, joiden pohjalta toimintaa voidaan arvioida. Pyrkimys reiluuteen ei saa luottamusta ilman, että toimijat noudattavat läpinäkyvyyttä ja ymmärrettävyyttä. Niiden perusteella toimet voidaan arvioida ja vakuutusala voi käydä eri tahojen kanssa keskustelua paremman reiluuden saavuttamiseksi.