MustRead: EU haluaa välttää ”hämyisen dystopian”, mutta tekoälyn sääntely ei noin vain taivu lakitekstiksi – miten käy vakuutusyhtiöiden Suomen mallin?

EU:n komissio haluaa mahdollistaa tekoälyn kehitystyön ja hyödyntämisen unionimaissa selkeiden pelisääntöjen pohjalta. Lainsäädännön valmistelua tarkasti seuranneen Miapetra Kumpula-Natrin (sd.) mukaan normien keskeinen tavoite on pitää tekoäly hyödyllisenä renkinä mutta estää sen soveltaminen ihmisten syrjimiseen.

Ovatko Facebookin algoritmin päättämät, yksilöllisesti miljardien käyttäjien etusivuille nostetut postaukset sosiaalista manipulointia?

Entä muodostaako tekoälyn käyttö esimerkiksi työpaikan haussa, opiskelupaikkojen jaossa, vakuutustoiminnassa tai kansalaisen luottokelpoisuuden määrittelyssä niin korkean riskin, että sitä pitää säännellä EU-tasolla?

Tällaisiin kysymyksiin EU joutuu nyt vastaamaan: Euroopan komissio julkisti keskiviikkona 21. huhtikuuta ehdotuksensa siitä, miten tekoälyn käyttöä tulisi tulevaisuudessa säädellä EU-maissa. EU:n digitaalisesta kilpailukyvystä vastaavan komissaarin Margrethe Vestagerin mukaan komission ehdotus pyrkii parantamaan EU:n kilpailukykyä tekoälyn kehittämisen osalta mutta haluaa myös, että tekoälyä käytetään eettisesti kestävällä tavalla. 

Yhdysvallat ja etenkin Kiina ovat tekoälyn kehitystyössä tällä hetkellä Eurooppaa edellä. Kiinasta on kuitenkin tullut myös varoittava esimerkki siitä, miten tekoälyä hyödynnetään yhä kattavamman kansalaisvalvonnan työkaluna.

Kuten aina, komission ehdotus on herättänyt tuoreeltaan kritiikkiä ja kysymyksiä. Kriitikoiden epäilykset liittyvät etenkin siihen, miten tekoälyn käytön rajoitukset muotoillaan yksiselitteiseksii lakitekstiksi. 

Europarlamentaarikko Miapetra Kumpula-Natri (sd.) myöntää MustReadin haastattelussa, että tekoälyn parissa liikutaan alueella, johon on hyvin vaikea laatia juridisesti yksiselitteisiä sääntöjä. Kumpula-Natri on Euroopan parlamentin tiedonhankinta- ja koordinaatioelimenä toimivan tekoälyvaliokunnan 1. varapuheenjohtaja.

”Taustalla on ajatus siitä, että ihmisten integriteettiin tai yksityisyyteen liittyvät asiat, joita nyt suojellaan, halutaan suojella myös silloin, kun tekoälyn osuus päätöksenteossa kasvaa”, Kumpula-Natri selittää. 

Vastuun päätöksistä ja niiden perusteista on pysyttävä ihmisillä itsellään, vaikka nopeasti kasvavaan digitaaliseen tietoon perustuva tekoäly loisikin uutta faktapohjaa päätöksenteossa. 

“Tällaisesta filosofisesta lähtökohdasta ei ole kovinkaan helppoa tehdä lainsäädäntöä.” 

Ihmismassojen valvonta “korkeariskistä”

Komission ehdotus erottelee tekoälyn käytön mahdollisuuksia eri kategorioihin niiden sisältämien riskien mukaan. Kokonaan kiellettyä olisi muun muassa tekoälyn käyttö ihmisten poliittiseen manipulointiin tai julkisen sektorin sosiaaliseen pisteytysjärjestelmään Kiinan antaman mallin mukaisesti.

Korkeariskisiä käyttötarkoituksia ovat komission lakiehdotuksen mukaan muun muassa suurten ihmismassojen valvonta kameroiden kaltaisten biometristen etätunnistusjärjestelmien kautta tai esimerkiksi kirurgisten robottien ja robottiautojen tapainen teknologia, joiden käyttö voi vaarantaa ihmishenkiä. Ehdotuksessa vaaditaan, että korkean riskien tekoälysovellusten osalta noudatetaan tiukkoja rajoituksia, joilla pyritään varmistamaan niiden turvallinen käyttö.

Niin kutsuttujen rajoitetun riskin tekoälyjärjestelmille komissio vaatii läpinäkyvyyttä. Esimerkiksi pankkien tai vakuutusyhtiöiden asiakkaita tulisi siis aina informoida esimerkiksi siitä, keskustelevatko he vaikkapa chatissä oikeiden ihmisten vai tietokoneen kanssa.

Suurin osa tekoälysovelluksista jäisi tietokonepelien tapaan komission ehdotuksessa vähäisen riskin luokkaan, eikä näille sovelluksille esitetä mitään rajoituksia.

Komission ehdotus siirtyy seuraavassa vaiheessa EU-parlamentin ja jäsenmaita edustavan neuvoston käsittelyyn. Arvioiden mukaan lopulliset sääntelypykälät tulevat voimaan aikaisintaan parin vuoden päästä.

Luottokelpoisuuden arviointiin todennäköisesti lisävaatimuksia

Kumpula-Natrin mukaan komission esityksessä on kohtia, joihin finanssisektorin kannattaa tutustua Suomessa tarkemmin. Ehdotuksessa halutaan torjua, ettei tekoälyä sovelleta julkisen sektorin toimesta ihmisten syrjimiseen tai haitalliseen ”sosiaalisen pisteytykseen”. 

Tekoälyn käyttö muun muassa vakuutustoiminnan riskianalyyseissä, hinnoittelussa ja korvausten mittamisessa on viime vuosina voimakkaasti yleistynyt. Suomessa yksityiset vakuutusyhtiöt toimivat joissain tapauksissa ikään kuin julkisen sektorin jatkeena, esimerkiksi liikennevakuutusten osalta. Laki velvoittaa vakuutuksen hankkimiseen, mutta se hankitaan yksityiseltä toimijalta.

“Siitä riittää varmasti jatkossa keskusteltavaa, miten esitys suhtautuu tähän Suomen malliin”, Kumpula-Natri miettii.

”Pankkialalla on jo olemassa omaa säätelyä myös tekoälyn käytön osalta. Komissio painottaa, että nyt valmistelussa olevan uuden lainsäädännön on oltava yhteensopiva tämän aikaisemman sääntelyn kanssa,” Kumpula-Natri sanoo. 

Komission esityksessä tekoälyjärjestelmät, joita on tarkoitus käyttää ihmisten luottokelpoisuuden määrittelyyn, on kirjattu korkean riskin käyttötarkoitukseksi. Näin ollen niiden sääntely on todennäköisesti tiukkenemassa.

Komissiossa pohditaan sitä, mitä EU:hun ei ainakaan haluta

Kumpula-Natrin mukaan EU:n tekoälyä koskevan säädöstön tärkein tavoite on suhteellisen selvä. Kansalaisten ei haluta koskaan joutuvan sellaiseen tilanteeseen, jossa jäisi esimerkiksi yksin koneälyn ratkaistavaksi, saako työnhakija jonkin työpaikan. 

Esityksellä halutaan varmistaa, että päätökset eivät perustu tekoälyn tekemiin virheisiin. “Oltaisiin myös todella absurdissa tilanteessa, jos julkisen sektorin tekemä päätös epää sinulta tukia tai opiskelupaikan, mutta kukaan ei osaa kertoa sinulle, miksi tekoäly on tällaisen päätöksen tehnyt,” Kumpula-Natri maalaa.

”Halutaan siis välttää sellaista hämyisää dystopiaa, jossa yksilöt voisivat joutua yhteiskunnan marginaaliin vain siksi, että koneälyn itsensä kehittämät algoritmit näin päättävät. Päätöksillä on oltava myös tulevaisuudessa ihmiskasvot.”

Kumpula-Natrin mukaan EU:ssa on seurattu varsin tarkkaan ratkaisuja, joita Kiina ja Yhdysvallat ovat tehneet.

”Noissa maissa on useissa ratkaisuissa menty sen punaisen viivan toiselle puolelle, jonne EU:ssa ei haluta mennä,” hän summaa.

”Kiinahan on selkeästi tekemässä maailmanvalloitusta tekniikan kautta eikä sillä yksipuoluemaana ole mitään tarvetta asettaa omien kansalaistensa tai kenenkään muunkaan osalta integriteettiin liittyviä rajoituksia siihen, kuinka se teknologiaa hyödyntää, Kumpula-Natri tähdentää.

”Tällaiseen valvontayhteiskuntaan Euroopassa ei haluta päätyä.”

Yhdysvalloissa tekoälyn kehitys on tapahtunut pitkälti suurten teknologiayritysten ehdoilla. Yritykset saivat käytännössä kehitellä omia kaupallisia ratkaisujaan vuosikausia ilman, että niiden toimintaan osattiin puuttua. 

Vasta vuoden 2016 brexit-kansanäänestyksen ja Yhdysvaltain presidentinvaalien jälkeen alettiin ymmärtää, että demokratioita voidaan merkittävästi manipuloida pelkästään sosiaalisen median sisältöjä suodattavien tekoälyalgoritmien välityksellä. Kumpula-Natrin mukaan esimerkiksi teknologiajättien mahdollisuus myydä tulevaisuudessa äänestäjien manipulointipalveluja  Cambridge Analytica -skandaalin malliin on estettävä.

”EU ei ole nyt asialla lainkaan liian aikaisin. Tarve tekoälyn käytön säätelyyn on aidosti olemassa ja se kasvaa uusien sovellusten myötä koko ajan.”

Kiinan kauhuesimerkki

Yksi esimerkki ”punaisen viivan toiselta puolelta” on Kiinassa aloitettu kokeilu tekoälyn käytöstä oikeusistuimissa. Hainanin maakunnan korkein oikeus ryhtyi vuonna 2019 käyttämään tekoälysovelluksia tuomioiden mittaamisessa.

Valtiollisen China Daily -lehden mukaan tekoäly nopeuttaa oikeudenkäyntejä poimimalla asiakirjoista automaattisesti tärkeimmät kohdat, hakee vastaavista rikoksista annetut aikaisemmat tuomiot ja suorittaa merkittävän osan tuomiolauselmien kirjoittamisesta automaattisesti. 

Järjestelmän kehittäjien mukaan keskeinen etu on se, että tuomarien inhimillisen harkinnan merkitys vähenee. Lisäksi järjestelmän arvioidaan kykenevän ennakoimaan rikosten uusimisen todennäköisyys ihmistuomareita paremmin.

Jo aikaisemmin Kiina on valjastanut tekoälyn yhä laajenevaan käyttöön poliisitoiminnassa, jossa maa pyrkii muun muassa kaiken kattavaan koko väestön kameraseurantaan. 

Tekoäly kykenee ainakin teoriassa erottamaan jokaisen kansalaisen kasvot toinen toisistaan, ja kameraseurannan tietokannoista jokaisen yksilön liikkeitä voidaan seurata niin reaaliajassa kuin jälkeenpäin rikostutkinnan työkaluna. Koronaepidemian myötä järjestelmä on koulutettu entistä paremmin tunnistamaan ihmiset myös kasvomaskien takaa. Muun muassa ihmisten kävelytapa on lähes yhtä yksilöllinen kuin sormenjäljet ja tekoäly oppii tunnistamaan sen. Kiinan tavoitteena on kansalaisten aukoton valvonta.

Kiinan hallitus myös pisteyttää kansalaiset sosiaalisen luotettavuuden perusteella. Pisteytysjärjestelmän yksityiskohdat ovat valtiosalaisuuksia, mutta käytännössä järjestelmä tarkoittaa pitkälle automatisoitua tekoälyteknologiaa, joka jatkuvasti analysoi yksittäisten kansalaisten tekemisiä ja tekemättä jättämisiä. 

Jos pelaat liikaa tietokonepelejä, maksat laskusi myöhässä tai olet baarissa liian myöhään illalla, pisteesi laskevat. Jos ystävilläsi on hyvät pisteet, myös omasi saattavat nousta. 

Kiinan hallituksen mukaan suunnitelman tarkoitus on tukea luottamuksen kulttuuria yhteiskunnassa. Henkilön sosiaaliset luottotiedot eli pistesaldo vaikuttaa jokaiseen häntä koskevaan päätökseen. Saatko matkustaa lainkaan tai myydäänkö sinulle lentolippua, missä saat asua, opiskella tai tehdä töitä. Pistesaldosi määrittää jopa sen, kenelle sosiaalisen median deittipalvelut sinut esittelevät – jos esittelevät.

Yhdysvalloissa kysellään tekoälyltä rikosten uusintariskiä

Myös Yhdysvalloissa, jossa on maailmanennätysmäärä vankeja suhteessa väestöön, oikeuslaitokset eri osavaltioissa ovat ryhtyneet kokeilemaan tekoälysovelluksia muun muassa vapautuvien vankien ehdonalaiskäsittelyissä. 

Järjestelmä perustuu ainakin toistaiseksi vankien henkilökohtaisten olosuhteiden ja ominaisuuksien korrelaatioon uusintarikollisuuden todennäköisyyden kanssa. Automatisoitujen arviointijärjestelmien puolustajien mukaan tekoälyn käyttö tekee ehdonalaisratkaisuista aikaisempaa objektiivisempia ja sitä kautta yhteiskunnasta turvallisemman.

Kriitikkojen mukaan tekoälyn soveltaminen amerikkalaiseen oikeudenkäyttöön johtaa vain maan rikosoikeusjärjestelmän rakenteelliseen rasismiin perustuvien vääryyksien kertautumiseen sen sijaan, että sitä hyödynnettäisiin rikollisuutta synnyttävien tekijöiden ennaltaehkäisyyn. 

Tekoäly päätyy esimerkiksi aina johdonmukaisesti siihen, että köyhä vanki on parempi pitää edelleen kalterien takana kuin varakas, koska tekoälyn käyttämien tietokantojen mukaan köyhyys lisää uusintarikollisuuden riskiä. 

Britannian Minority Report -tekoälyfantasia epäonnistui

Britannian poliisi luopui viime vuonna yrityksestä kehittää tekoälysovellus, joka olisi varoittanut väkivaltarikollisista ennen kuin nämä toteuttavat rikoksensa. Työnimeltään Most Serious Violence– eli MSV-järjestelmän piti kertoa, kuka on aikeissa syyllistyä vakavaan väkivaltarikokseen.

Britannian hanke toikin monille mieleen Steven Spielbergin Minority Report -tieteiselokuvan, jossa Tom Cruisen esittämä poliisi metsästi telepatian avulla rikollisia juuri ennen kuin he ennättivät syyllistyä niihin. Elokuvassa rikolliset myös tuomittiin pelkkien aikeiden, ei todellisten tekojen perusteella.

Keinoälyn tutkimukseen ja hyödyntämiseen erikoistuneen Alan Turing -instituutin raportti varoitti jo ennalta, että hankkeeseen liittyi valtavia eettisiä ongelmia. Yksi niistä on YK:n ihmisoikeusjulistuksen syyttömyysolettama, jonka mukaan jokainen on syytön siihen asti, kunnes on syylliseksi oikeudessa todistettu. Jos keinoälyä ryhdytään käyttämään oletettujen tulevaisuuden syyllisten seulontaan, koko syyllisyyden käsite hämärtyy.

Britannian sisäministeriö ehti rahoittaa järjestelmän pystyttämistä vuosina 2018–2020 noin 11 miljoonalla eurolla. Järjestelmään syötettiin muun muassa Länsi-Yorkshiressa 1,1 miljoonan ihmisen tiedot. Kokeilu haudattiin vähin äänin sen jälkeen, kun järjestelmä väitti, että 74 prosenttia eli 814 000 heistä oli aikeissa syyllistyä väkivaltarikokseen ampuma- tai teräaseen avulla seuraavan kahden vuoden aikana.

Kirjoittaja: Mika Horelli, MustRead

Kirjoitus on alun perin julkaistu MustReadin sivuilla 3.5.2021. Sisällön mahdollistaa Finanssiala ry. Lahjoittaja ei ole vaikuttanut sisältöön eikä MustReadin journalistiseen prosessiin.