”Tekoälylle tarvitaan pelisäännöt, mutta kiireessä tehty epämääräinen sääntely jää tosipaikan tullen lähtötelineisiin”

Kuvituskuva
Tekoälypohjaisten ratkaisujen yleistyessä päivittyy myös niitä koskeva sääntely. Kuva: Shutterstock
  • AI‑sääntelyä uhkaavat epäselvät määritelmät ja liian tiukka aikataulu, jotka luovat oikeudellista epävarmuutta ja haittaavat sääntöjen toimivaa soveltamista käytännössä. 
  • Sääntelyn soveltamista tulisi lykätä ja täsmentää ja esimerkiksi perinteiset tilastomenetelmät rajata selvästi sääntelyn ulkopuolelle sekä keventää päällekkäisiä ja pirstaleisia valvontavelvoitteita.

Tekoälypohjaisten ratkaisujen yleistyessä päivittyy myös niitä koskeva sääntely. EU:ssa valmistellaan parhaillaan tekoälyasetusta muokkaavaa komission AI Omnibus-lakipakettia.

Finanssiala ry (FA) suhtautuu myönteisesti EU:n tekoälysääntelyn tavoitteisiin, sillä tekoälylle tarvitaan ennakoitava ja innovaatioita tukeva toimintaympäristö. Nyt valmisteltavan sääntelyn aikataulu ja epäselvät määrittelyt kuitenkin herättävät huolta, ja lainsäädännön ilmeiset valuviat on saatava ajoissa kuntoon.

”Korkean riskin tekoälyjärjestelmiin liittyvien vaatimusten soveltaminen vaatii tuekseen teknisiä standardeja, ohjeita ja valvontakäytäntöjä, joita ei ole vielä riittävästi valmiina. Siksi kannattaisi lykätä sääntelyn soveltamista, jotta yrityksille jää realistinen mahdollisuus mukautua sääntöihin”, toteaa FA:n johtava juristi Aleksi Kaakinen.

”On selvää, että tekoälylle tarvitaan pelisäännöt, mutta kiireessä tehty epämääräinen sääntely ei palvele tarkoitustaan, vaan jää tosipaikan tullen lähtötelineisiin. Nyt ollaan muuttamassa lainsäädäntöä, joka saatiin valmiiksi vain kaksi vuotta sitten. Se, että sääntelyä on muutettava jo siirtymäaikana, on kestämätöntä oikeusvarmuuden ja ennakoitavuuden näkökulmasta”, Kaakinen kritisoi.

Liian lavea AI‑määritelmä voisi vetää jopa Excelin sääntelyn piiriin

Tekoälyjärjestelmän määritelmä on Kaakisen mukaan yksi sääntelyn suurimmista kompastuskivistä. Kaakinen huomauttaa, että perinteiset ja jo vuosikymmeniä käytössä olleet tilastomatemaattiset mallit – kuten lineaarinen ja logistinen regressio – pitäisi rajata yksiselitteisesti sääntelyn ulkopuolelle. Niitä on hyödynnetty pitkään myös finanssialalla ilman, että niihin olisi aiemmin liitetty ylimääräistä mystiikkaa tai uhkakuvia.

”Monet  tilastomatemaattiset menetelmät ovat olleet käytössä jo vuosikymmeniä eikä niiden tule katsoa kuuluvan tekoälyjärjestelmän määritelmän alaisiksi. Näihin lukeutuu jopa Excel. Valitettavasti siitä, tulisiko nämä menetelmät katsoa tekoälyjärjestelmän määritelmän piiriin kuuluviksi, on kuitenkin käyty keskustelua erityisesti tilastollisten menetelmien osalta.”

Kaakisen mukaan nykyinen tulkinnanvaraisuus aiheuttaa oikeudellista epävarmuutta ja voi johtaa siihen, että eri maissa sääntöjä sovelletaan eri tavoin.

”Tämä heikentää sisämarkkinoiden toimivuutta ja asettaa yritykset eriarvoiseen asemaan”, Kaakinen moittii.

Tekoälyosaamisen edistäminen kuuluu koko yhteiskunnalle

Asetuksessa yritykset velvoitetaan myös työntekijöidensä tekoälyosaamisen edistämiseen. Kaakinen painottaa, että tekoälyosaamisen edistäminen on äärimmäisen tärkeää, mutta sen laajamittaisen levittämisen tulee olla koko yhteiskunnan vastuulla.

”Yritykset hoitavat toki työntekijöiden tarvitseman perehdytyksen eri järjestelmien käyttöön. Varsinaisen perusymmärryksen kehittäminen tekoälystä kuuluu kuitenkin ensisijaisesti julkiselle vallalle, ei yksittäisten yritysten vastuulle sen enempää kuin lukutaito tai muut tärkeimmät kansalaistaidot”, Kaakinen toteaa.

”Luonnollisesti finanssiala haluaa olla vastuullinen tekoälyn käyttäjä ja arvioi oman tekoälyn käyttöään eurooppalaisen lainsäädännön puitteissa riippumatta siitä, siirretäänkö tekoälyosaamisen toteuttaminen lain tasolla komissiolle ja jäsenvaltioille”, jatkaa Kaakinen.

Syrjimättömyyden ja turvallisuuden edistäminen ei saa törmätä sääntelyyn

EU:n tekoälyasetuksen keskeisenä tavoitteena on ehkäistä tekoälypohjaisten ratkaisujen tuottamaa syrjintää. Tekoälypohjaisia ratkaisuja saatetaan hyödyntää esimerkiksi luottopäätöksissä, riskien arvioinnissa ja vakuutusten hinnoittelussa, jolloin on välttämätöntä varmistaa, että tekoäly ei sorru esimerkiksi asiakkaan taustasta johtuvaan syrjintään.

Kaakinen on huolissaan siitä, että sääntely saattaa käytännössä hankaloittaa yhdenvertaisuusnäkökulmien huomioimista.

”Syrjinnän torjuminen vaatii riittävän laajoja oikeuksia käsitellä henkilötietoja. Sääntelyn tulee siksi mahdollistaa laajemman datan käyttö syrjintäriskien tunnistamiseen ja korjaamiseen, myös silloin kun kyse ei ole korkean riskin järjestelmistä”, Kaakinen toteaa.

EU-sääntelyn asettama korkean riskin luokitus merkitsee yrityksille selvästi tiukempia velvoitteita: järjestelmiä on jo ennen markkinoille pääsyä testattava, dokumentoitava ja arvioitava perusteellisesti. Toimijoille koituvan kuormituksen takia järjestelmiä ei pitäisi luokitella korkeariskisiksi liian kevyin perustein.

”Sääntelyn tulee määritellä korkean riskin tekoälyn järjestelmät niiden todellisen vaikutuksen perusteella, eli sillä on oltava olennainen vaikutus päätöksentekoon. Lisäksi olisi rikoksentorjunnan kannalta järjetöntä luokitella kyberturvallisuuteen tarkoitetut AI-järjestelmät korkean riskin järjestelmiksi”, Kaakinen toteaa.

Toimijoiden hallinnollista taakkaa tulisi Kaakisen mukaan keventää esimerkiksi yksinkertaistamalla korkean riskin järjestelmien rekisteröintiä, ja päällekkäiset velvoitteet suhteessa muuhun EU ja sektorilainsäädäntöön tulisi poistaa.
Kaakinen varoittaa myös liiallisesta valvonnan pirstoutumisesta.

”Yritysten kannalta olisi kestämätöntä, jos samaa hanketta valvoisi usea eri viranomainen eri näkökulmista”, Kaakinen perustelee.

.

Jäikö kysyttävää?

|

Ota yhteyttä aiheen asiantuntijaan