Tekoälysääntelyn tarpeellisuus

6/2021 4.11.2021
Robot
3d rendering robot learning or machine learning with education hud interface

Euroopan Unionin komissio on ollut erittäin aktiivinen tuottamaan uusia lähinnä digitalisointiin liittyviä lainsäädäntöehdotuksia. Marraskuussa 2020 komissio julkisti datan hallintaa koskevan asetusehdotuksensa (Data Governance Act, DGA). Joulukuussa 2020 ilmestyi digitaalisiin palveluihin ja markkinoihin liittyvät ehdotukset (Digital Services Act, DSA ja Digital Markets Act, DMA). Tekoälyä koskeva ehdotus tuli vuoden 2021 huhtikuussa ja elektronista identiteettiä koskeva ehdotus pian sen jälkeen kesäkuussa.

Mutta onko tässä kokonaisuudessa yksittäinen asetus eli tekoälyä koskeva ehdotus, Artificial Intelligence Act, AIA, tarpeellinen ja jos on, niin miksi?

Artificial Intelligence Act – AIA

Toukokuussa julkaistussa artikkelissa AIA:n sisällöstä (IPRinfo 3/2021) ei otettu kantaa siihen, onko sääntely yleensä tarpeen. Siinä toivottiin ainoastaan yksinkertaisempaa ja kapea-alaisempaa asetusta sekä esitettiin huoli komission oikeudesta yksinään päättää uuden teknologian liittämisestä asetuksen soveltamisalaan. Komissio voi myös ilman lainsäädäntöprosessia laajentaa luetteloa tekoälyn käyttämisestä niin sanotuilla korkean riskin alueilla.

Liike-elämän piirissä on kyseenalaistettu asetuksen tarpeellisuutta ja arvailtu, heikentääkö sen hyväksyminen EU:n kilpailuasemaa verrattuna esimerkiksi USA:han ja Kiinaan teknologian osalta. Toisaalta ollaan hyvinkin tietoisia siitä, että tietyt tekoälyn edistämät tekniikat, kuten salaa tapahtuva manipulointi, sosiaalinen pisteytys ja kasvojen tunnistus, ovat vieraita EU:n vaalimille ihmisoikeutta koskeville arvoille.

Haasteita yrityksille… ja viranomaisille

Liike-elämässä tekoälyn hyödyntäminen tuo esille mielenkiintoisia ilmiöitä. Ensinnäkin algoritmien aikaansaamat tulokset tai päätökset voivat olla puolueellisia. Voi myös olla haastavaa jälkikäteen ymmärtää mikä esimerkiksi itseoppivassa algoritmissa on johtanut puolueelliseen tulokseen eli onko vika algoritmissa, sen käyttämässä datassa vai molemmissa? Kysymys on läpinäkyvyydessä. Kolmanneksi teknologian kehittyessä herää kysymys pystyvätkö yritykset hallitsemaan sitä eli esimerkiksi käyttäessään eri algoritmeja eri markkinoilla tai ymmärtävätkö ne, että samaa algoritmia ei voida soveltaa eri populaatioihin? Ovatko algoritmit turvassa kyberhyökkäyksiltä? Osaava johto ja henkilöstö ovat tällöin avainasemassa.

Esimerkkejä löytyy siitä, että algoritmin käyttö on johtanut siihen, että vähemmistöön kuuluva, mutta muutoin täysin pätevä ei ole menestynyt työnhaussa tai että lainahakemus on evätty. Tämä voi johtua siitä, että algoritmille syötetty data on jo itsessään valikoivaa tai että asetetut kriteerit ovat rajoittavia kuten esimerkiksi, että tiettyjä asuinalueita on suljettu pois jälkimmäisessä tapauksessa, se on lainanhakuprosessissa, vaikka kriteerit muutoin täyttyisivät eli lainanhakija on vakavarainen.

Jotta yrityksestä työtä hakeva tai sen asiakkaat ymmärtäisivät miksi ei päässyt töihin tai vastaavasti ei saanut lainaa, pitäisi voida selittää miten automaattinen päätöksenteko on tapahtunut. Tämä voi olla erittäin haastavaa, jos algoritmi on käyttänyt lukuisia kriteerejä päätöksen tekemiseksi. Tässä vaatimus läpinäkyvyydestä on avainasemassa. Lisäksi henkilöstöltä vaaditaan osaamista.

Samalla kuin automaattinen päätöksenteko nopeuttaa ja tehostaa yritysten toimintaa, se aiheuttaa niille merkittäviä haasteita. Yrityksissä tulisi olla käytäntö, jossa jatkuvasti verrataan tuloksia ja asiakaspalautetta algoritmeissa käytettyihin kriteereihin. Automaattista päätöksentekoprosessia pitäisi voida avata asiakkaille, jotta he ymmärtäisivät miksi ja miten tiettyyn lopputulemaan on päädytty. On perusteltua kysyä, pitäisikö asiakkaiden osalta käytettäviä itseoppivia algoritmeja lukita tietyksi ajaksi, jotta niiden käyttäytymistä voitaisiin seurata paremmin, ja niin edelleen?

Tekoälyn integroiminen yritysten päätöksentekoon ja toimintaan, ja miksei valtion hallintoon, kuten immateriaalioikeuksien rekisteröintiin, tuo mukanaan melkoisia haasteita.

Tämän takia on perusteltua myös tekoälyn käytölle asettaa lainsäädännölliset puitteet ja kieltää tietynlaiset meidän arvoillemme vieraat käyttötavat. Puitteiden tulee kuitenkin olla sen verran väljät, ettei niillä estetä eurooppalaisten yritysten kilpailumahdollisuuksia. EU:n päätöstentekijöiden tulee siksi tarkoin arvioida asetusehdotukseen sisällytettyjä riskikategorioita ja myös sitä, onko viranomaiskontrolli etu- vai takapainotteinen. Ottamalla käyttöön tässä ehdotettuja menettelytapoja yritysten käyttämien algoritmien jatkuvasta sisäisestä arvioinnista päästään jo vähän eteenpäin.

Sanomatta on selvää, että asetusehdotus asettaa haasteita myös komissiolle. Sitä on muun muassa kritisoitu siitä, että säännökset manipuloinnista edellyttävät tekijältä tahallisuutta (intent), joka voi mitätöidä säännöksen vaikutuksen näytön vaikeutuessa, erilaisille standardeista huolehtiville järjestöille tulee liikaa sanavaltaa koskien vakavaksi luokiteltuja riskejä ja liiallinen harmonisointi muilta osin voi olla jäsenvaltioille haitaksi.

Töitä riittää siten sekä yrityksissä että lainsäätäjän puolella.

Kirjoittajat