Ehdotus tekoälyasetukseksi – etu vai haitta?

3/2021 6.5.2021
Robot hand

EU:n kommissio julkisti 21.4.2021 ehdotuksensa tekoälyasetukseksi: Proposal for a Regulation of the European Parliament and of the Council laying down harmonised rules of Artificial Intelligence (Artificial Intelligence Act) and amending certain Union legislative acts.

Tausta

Ehdotus tekoälyasetukseksi, AIA, on osa komission puheenjohtajan Ursula von der Leyenin, ohjelmaa vuosille 2019 – 2024. AIA:sta käytetty sanamuoto on: ” … the Commission would put forward legislation for a coordinated European approach on the human and ethical implications of AI.” Vuoden 2020 helmikuussa komissio julkaisi valkoisen kirjansa AI:sta “A European approach to excellence and trust” (COM(2020) 65 final) (IPRinfo 1/2020). Jo valkoisesta kirjasta käy hyvin ilmi, että tarkoituksena on luoda “An ecosystem of excellence” ja samanaikaisesti ” An ecosystem of trust”. Pyrkimys on siis tehdä EU:sta AI:n johtavia alueita maailmassa, mutta samalla myös minimoida AI:n aiheuttamat riskit. AI:n tulisi siten, komission käyttämän sanamuodon mukaan, olla ihmiskeskeinen. Toivottava, muttei mikään aivan helposti toteutettava yhtälö.

Sisältö

Asetusehdotuksen tarkoituksena on ensisijaisesti luoda valkoisessa kirjassa mainittu luottamusjärjestelmä. Se koostuu 89 perustelukohdasta ja 85 artiklasta. Siihen sisältyy yleisiä määräyksiä (Title I), määräyksiä kielletyistä AI-käytännöistä (Title II), korkean riskin AI-järjestelmistä (Title III), läpinäkyvyysvaatimuksista koskien tiettyjä järjestelmiä (Title IV), innovaatioita tukevista toimista (Title V), hallinnosta (Title VI), EU:n tietokannasta koskien itsenäisiä korkean riskin AI-järjestelmiä (Title VII), jälkiseurannasta, informaation vaihdosta, markkinavalvonnasta (Title VIII), käyttäytymiskoodista (Title IX), salassapidosta ja rangaistuksista (X), valtuuksien delegoinnista, ym. (Title XI) ja määräyksiä voimaanpanosta, ym. (Title XII).

Asetus koskee AI-järjestelmien tuomista markkinoille sekä käyttöönottamista, tiettyjen käytäntöjen kieltämistä, erityisvaatimuksia koskien korkean riskin AI-järjestelmiä, läpinäkyvyysvaatimuksia sekä sääntöjä liittyen markkinaseurantaan ja valvontaan. Säännöt koskevat unionin aluetta ja sovelletaan AI-järjestelmiin riippumatta siitä sijaitsevatko järjestelmien tuottajat EU:ssa vai sen ulkopuolella (Artikla 1 ja 2).

AI-järjestelmällä tarkoitetaan tietyllä tekniikalla valmistettua softaa, joka voi tiettyjen ihmisten määrittämien tavoitteiden puitteissa tuottaa sisältöä, ennusteita, suosituksia tai päätöksiä, jotka vaikuttavat sen kanssa vuorovaikutuksessa olevaan ympäristöön (Artikla 3). Liitteessä 1 on lueteltu mistä tekniikoista on kysymys eli koneoppimisesta, joka sisältää muun muassa syväoppimista, logiikkaan perustuvia tekniikoita, jotka sisältävät muun muassa asiantuntijajärjestelmiä sekä tilastollisia menetelmiä.

Artiklassa 5 kielletään AI-järjestelmät

  1. joista henkilö ei ole tietoinen
  2. jotka vaikuttavat käyttäytymiseen vahingollisesti
  3. jotka käyttävät hyväksi tiettyjä ryhmiä heidän ikänsä tai vammaisuutensa takia
  4. tai ne valtiovallan käyttämät AI-järjestelmät, jotka pyrkivät arvioimaan kansalaisten luotettavuutta heidän sosiaalisen käyttäytymisensä perusteella.

Kauko-ohjattuja biometrisiä järjestelmiä on sallittua käyttää vain tietyissä tilanteissa, kuten rikollisten paikantamiseksi ja terroristihyökkäysten torjumiseksi.

Niistä AI-järjestelmistä, jotka ovat vuorovaikutuksessa luonnollisten henkilöiden kanssa, tulee käydä ilmi, että ollaan tekemisissä tekoälyjärjestelmän kanssa. Syväväärennöksistä tulee ilmetä, että on kysymys väärennöksestä, eli esimerkiksi kuvaa on manipuloitu tai se on tuotettu AI:ta hyväksi käyttämällä.

EU:n tietosuojavaltuutetun tai yhden tai useamman EU:n jäsenvaltioiden tulee luoda niin sanottuja AI-sääntö hiekkalaatikoita, joissa voidaan etukäteen testata uusia innovatiivisia AI-järjestelmiä ennen kuin ne tuodaan markkinoille.

Asetuksessa ehdotetaan, että luodaan jäsenvaltioiden edustajista koostuva AI-neuvosto, joka toimisi komission neuvonantajana muun muassa asetuksen soveltamisessa.

Artiklassa 71 otetaan käyttöön hallinnollisia maksuja, jos esimerkiksi rikotaan edellä Artiklassa 5 kuvattuja kieltoja. Maksu voi nousta jopa 30 miljoonaan euroon tai 6 %:iin edellisvuoden liikevaihdosta (riippuen siitä kumpi on korkeampi), jos rikkoja on yhtiö.

Eräissä tapauksissa komissiolle on annettu valtuutus (Artikla 4) tehdä itsenäisiä päätöksiä, kuten täydentää Liitteessä 1 mainittuja tekniikoita teknologian kehittyessä. Näiden uusien tekniikoiden tulee kuitenkin luonteeltaan (”characteristics”) vastata nyt lueteltuja.

Kritiikki

Ehdotus on varsin yksityiskohtainen, mutta sitä on kritisoitu tekoälymääritelmän ylimalkaisuudesta. Varsinkin liike-elämä haluaisi tähän tarkennusta. Minkä tyyppisistä järjestelmistä on kysymys ja mihin niitä käytetään? Pelkästään maininta siitä mitä teknisiä menetelmiä on käytetty niiden luomisessa, ei riitä.

Lisäksi huolta on aiheutunut siitä, rajoittaako asetus innovatiivisuutta esimerkiksi sen takia, että järjestelmiä testattaisiin etukäteen.

Asetuksen horisontaalisuus lisää myös ainakin yritysten seurantataakkaa entisestään, kuten esimerkiksi tietosuoja-asetus on tehnyt.

Asetus tuo myös mukanaan taas kerran uuden hallinnon ja uusia hallinnollisia maksuja, jotka ovat varsin korkeita.

Päätelmiä 

Kysymykseksi jää olisiko tarkoituksenmukaisempaa tyytyä sääntelemään sitä, mikä on kiellettyä ja mitä rikkomisesta seuraa? On selvää, ettemme Eurooppaan halua samanlaista pisteytysjärjestelmää sosiaalisen käyttäytymiseemme perustuen, kuten Kiinassa. Emmekä myöskään halua valtiovallan käyttämiä salaisia AI-järjestelmiä. On syytä myös huolehtia siitä, ettei perusoikeuksiamme rikota. AI-asiantuntija professori Roberto Zicari on hiljattain myöntämässään haastattelussa (HBL 4.5.2021) samoilla linjoilla. Hänen mielestään eettistä puolta on tässä yhteydessä turvattava.

Itse suhtaudun skeptisesti siihen, että komissiolle annetaan valtuuksia itsenäisesti päättää Liite 1 täydentämisestä uusilla AI-järjestelmätekniikoilla. Mielestäni aikaa pitäisi käyttää määritelmän täsmentämiseen eikä antaa komissiolle vapaita käsiä. Lisäksi uskon, että meillä on varaa varsin pikaisesti täydentää kapea-alaisempaa ja yksinkertaisempaa asetusta tekoälytietämyksemme lisääntyessä.

Kirjoittajat