Viimeksi julkaistu 27.11.2021 11.01

Valtioneuvoston U-kirjelmä U 28/2021 vp Valtioneuvoston kirjelmä eduskunnalle komission ehdotuksesta Euroopan parlamentin ja neuvoston asetukseksi tekoälyn harmonisoiduksi sääntelyksi (Artificial Intelligence Act)

Perustuslain 96 §:n 2 momentin perusteella lähetetään eduskunnalle Euroopan komission 21 päivänä huhtikuuta 2021 tekemä ehdotus Euroopan parlamentin ja neuvoston asetukseksi tekoälyn harmonisoiduksi sääntelyksi (KOM(2021) 206 lopullinen) sekä ehdotuksesta laadittu muistio. 

Helsingissä 27.5.2021 
Elinkeinoministeri 
Mika 
Lintilä 
 
Johtava asiantuntija 
Satu 
Vasamo-Koskinen 
 

MUISTIOTYÖ- JA ELINKEINOMINISTERIÖ20.5.2021EU/2021/0414KOMISSION EHDOTUS EUROOPAN PARLAMENTIN JA NEUVOSTON ASETUKSEKSI TEKOÄLYN HARMONISOIDUKSI SÄÄNTELYKSI (ARTIFICIAL INTELLIGENCE ACT)

Tausta

Komissio antoi 21.4.2021 ehdotuksen Euroopan parlamentin ja neuvoston asetukseksi tekoälyn eurooppalaisesta lähestymistavasta (KOM(2021) 206 lopullinen). 

Samassa yhteydessä komissio antoi tekoälyn tiedonannon (KOM(2021) 205 lopullinen) sekä sen liitteenä päivitetyn tekoälyn koordinoidun toimintasuunnitelman. Tiedonannosta on laadittu erillinen valtioneuvoston kirjelmä. Lisäksi komissio antoi ehdotuksen koneasetukseksi (KOM(2021) 202 lopullinen). 

Ehdotus on uutta sääntelyä. Asetusehdotus pohjautuu komission 19.2.2020 antamaan tiedonantoon Euroopan digitaalisesta tulevaisuudesta sekä tekoälyä koskevaan valkoiseen kirjaan (E24/2020vp).  

Ensimmäisen tekoälyn koordinoidun toimintasuunnitelman komissio julkaisi vuonna 2018. Lisäksi komissio nimitti tekoälyä käsittelevän korkean tason asiantuntijaryhmän, joka laati eettiset ohjeet luotettavaan tekoälyyn sekä luotettavan tekoälyn politiikka- ja investointisuositukset.  

Uusien teknologioiden kehitykseen ja käyttöön liittyvät ulko- ja turvallisuuspoliittiset kysymykset korostuvat läpileikkaavana ulottuvuutena. Eurooppa-neuvosto on todennut, että EU:n on oltava maailmanlaajuinen johtaja turvallisen, luotettavan ja eettisen tekoälyn kehittämisessä, ja on kehottanut komissiota esittämään selkeän, objektiivisen määritelmän korkean riskin tekoälyjärjestelmistä varmistaen samalla tietosuojan, digitaalisten oikeuksien ja eettisten normien korkean tason sekä Euroopan kansalaisten oikeuksien täysimääräisen kunnioittamisen. EU:n lainsäädännön tulisi kannustaa tekoälypohjaisten teknologioiden rajat ylittävään kehittämiseen ja soveltamiseen. Euroopan parlamentti on puolestaan antanut useita tekoälyyn liittyviä päätöslauselmia, mukaan lukien etiikka, vastuu, tekijänoikeudet, tekoäly rikosasioissa ja tekoäly koulutus-, kulttuuri- ja audiovisuaalialalla.  

Suomi toimeenpanee EU:n digitalisaatiopolitiikkaa pääministeri Marinin hallitusohjelman mukaisesti vahvistaen EU:n digitaalisia sisämarkkinoita ja kilpailukykyä sekä edistäen eettisesti, taloudellisesti ja sosiaalisesti kestävän datapolitiikan ja tekoälypoliittisen sääntelykehikon laatimista. 

Ehdotuksen tavoite

Komissio ehdottaa oikeudellista kehystä eurooppalaisen lähestymistavan luomiseksi sekä yleisten etujen, erityisesti terveyden, turvallisuuden, perusoikeuksien ja -vapauksien korkean tason suojelun toteuttavan tekoälyn kehittämisen ja käyttöönoton edistämiseksi. Komission sääntelyehdotus on ensimmäinen laatuaan maailmassa ja se pyrkii edelläkävijänä viitoittamaan suuntaa globaalisti. 

Asetusehdotuksen tavoitteena on, että EU:sta muodostuu tekoälyn kehittämiselle ja soveltamiselle suotuisa ympäristö, joka edistää investointeja ja vahvistaa yritysten kansainvälistä kilpailukykyä. Asetusehdotuksen tavoitteena on lisäksi vahvistaa EU:ta turvallisena, luotettavana, ihmiskeskeistä ja - oikeuksia kunnioittavana toimintaympäristönä. 

Asetuksen tarkoituksena on parantaa sisämarkkinoiden toimintaa luomalla edellytykset tekoälyn käyttöönotolle, joka on yhteensopiva unionin lainsäädännön kanssa ja edistää terveyden ja turvallisuuden sekä henkilöiden perusoikeuksien ja –vapauksien ja erityisesti henkilötietojen korkean tason suojelua. Komission sääntelyehdotus pyrkii lisäksi selkeästi osoittamaan, että tekoälyn käyttöönoton tulee EU:n alueella perustua unionin arvoille. Asetuksella pyritään luomaan edellytykset luottamuksen ekosysteemille, joka edesauttaa tekoälyn markkinoille saattamista, käyttöönottoa ja kehittämistä sekä tekoälypohjaisten tavaroiden ja palvelujen liikkuvuutta. Lisäksi tavoitteena on, että EU:n markkinoilla saatavissa olevan tai muulla tavoin unionin kansalaisiin vaikuttavan tekoälyn sääntöjen tulisi saattaa ihmiset keskiöön.  

Asetusehdotuksen tavoitteena on, että oikeudellinen sääntelykehys olisi oikeasuhtainen ja tasapainoinen. Tavoitteena on, että sääntely koskisi rajattua osaa tekoälyjärjestelmien käyttötapauksista ja suurin osa tekoälyjärjestelmien käytöstä sallittaisiin. 

Ehdotuksen pääasiallinen sisältö

Tekoäly on nopeasti kehittyvä teknologiaperhe, joka voi myötävaikuttaa monenlaisiin taloudellisiin ja yhteiskunnallisiin etuihin kaikilla toimialoilla ja sosiaalisessa toiminnassa. Parantamalla ennakointia, optimoimalla toimintaa ja resurssien kohdentamista sekä yksilöimällä palvelujen toimittamista tekoälyn käyttö voi tarjota yrityksille keskeisiä kilpailuetuja ja tukea sosiaalisesti ja ekologisesti kestäviä tuloksia.  

Asetusehdotuksessa tekoälyn oikeudellisen kehyksen luomista lähestytään riskiperustaisesti ja käyttötapauskohtaisesti. Riskiperusteisella ja käyttötapauskohtaisella lähestymistavalla tarkoitetaan, että tekoälyjärjestelmät luokitellaan käyttötarkoituksen pohjalta. Ehdotettu luokittelu on: (i) kielletyt käyttötarkoitukset, (ii) korkean riskin käyttötarkoitukset, (iii) matalan riskin käyttötarkoitukset ja (iv) minimaalisen tai olemattoman riskin käyttötarkoitukset. Saman tekoälyteknologian käyttö voisi täten olla sallittua tai kiellettyä EU:n alueella riippuen käyttötarkoituksesta. Sääntely määräytyisi sen perusteella, missä määrin tekoälyjärjestelmän käyttö voisi aiheuttaa merkittävän haitallisen vaikutuksen ihmisten terveyteen, turvallisuuteen tai perusoikeuksien toteutumiseen. 

3.1  Asetusehdotuksen kohde ja soveltamisala

Asetusehdotuksessa ehdotetaan yhdenmukaisia sääntöjä korkean riskin tekoälyjärjestelmien markkinoille saattamisessa, käyttöönotossa ja käytöstä unionissa sekä esitetään yhdenmukaisia läpinäkyvyyssääntöjä tekoälyjärjestelmille, jotka on tarkoitettu vuorovaikutukseen luonnollisten henkilöiden kanssa. Lisäksi ehdotetaan sääntöjä koskien markkinoiden seurantaa ja valvontaa.  

Asetusta sovellettaisiin tarjoajiin, jotka saattavat markkinoille tai ottavat käyttöön tekoälyjärjestelmiä unionissa riippumatta siitä, ovatko nämä tarjoajat sijoittautuneet unioniin vai kolmanteen maahan, unionissa sijaitsevien tekoälyjärjestelmien käyttäjiin tietyin ehdoin sekä kolmannessa maassa sijaitsevien tekoälyjärjestelmien tarjoajiin ja käyttäjiin ja kun järjestelmän tuotosta käytetään unionissa. 

Asetusta ei sovellettaisi tekoälyjärjestelmiin, jotka on kehitetty tai joita käytetään yksinomaan sotilastarkoituksiin. 

3.2  Määritelmät

Tekoälyjärjestelmällä tarkoitetaan ohjelmistoa, joka on kehitetty yhdellä tai useammalla liitteessä I luetellulla tekniikalla ja lähestymistavalla ja joka voi tuottaa tiettyjä ihmisen määrittelemiä tavoitteita varten tuotoksia, kuten sisältöä, ennusteita, suosituksia tai päätöksiä. Tekoälyjärjestelmän määrittely oikeudellisessa kehyksessä pyrkii olemaan mahdollisimman teknologianeutraali ja kestävä, ottaen huomioon nopean teknologisen kehityksen sekä markkinoiden kehityksen. 

Tuotteen tai järjestelmän turvakomponentilla tarkoitetaan tuotteen tai järjestelmän komponenttia, joka suorittaa kyseisen tuotteen tai järjestelmän turvatoiminnon ja jonka vika tai toimintahäiriö vaarantaa ihmisten terveyden ja turvallisuuden tai omaisuuden. 

Biometrisillä tiedoilla tarkoitetaan henkilötietoja, jotka ovat peräisin luonnollisen henkilön fyysisiin, fysiologisiin tai käyttäytymisominaisuuksiin liittyvästä erityisestä teknisestä käsittelystä, joka sallii tai vahvistaa kyseisen luonnollisen henkilön yksilöllisen tunnistamisen. 

3.3  Suhde muuhun unionin lainsäädäntöön

Asetusehdotuksella on paljon liittymäkohtia voimassa olevaan unionin lainsäädäntöön horisontaalisen luonteensa vuoksi. Ehdotus täydentää yleistä tietosuoja-asetusta (EU) 2016/679 ja direktiiviä poliisitoiminnan tietosuojasta (EU) 2016/680, eikä rajoita niiden soveltamista. Lisäksi ehdotus täydentää unionin lainsäädäntöä syrjinnän kiellosta asettamalla tekoälyjärjestelmille algoritmista syrjintää vähentäviä vaatimuksia. Asetusehdotus ei myöskään rajoita unionin kilpailulainsäädännön soveltamista. Asetusehdotuksessa esitetään, että asetuksessa tarkoitetut markkinavalvontaviranomaiset soveltaisivat markkinavalvonta-asetusta (EU) 2019/1020 tekoälyjärjestelmien valvontaan. Markkinavalvonta-asetuksen viittaukset tuotteisiin tulisi tulkita siten, että ne kattaisivat myös asetusehdotuksen soveltamisalaan kuuluvat tekoälyjärjestelmät. 

Siltä osin kuin tekoälyjärjestelmät ovat tuotteiden turvallisuuskomponentteja, asetusehdotus sovitetaan yhteen voimassa olevan sektorikohtaisen turvallisuuslainsäädännön kanssa, jotta varmistetaan sääntelyn yhdenmukaisuus ja minimoidaan ylimääräinen hallinnollinen taakka. Jos korkean riskin tekoälyjärjestelmä kuuluu ns. uuden lainsäädäntökehyksen (New Legislative Framework, NLF) alaisiin tuotteisiin, asetusehdotuksen uudet vaatimukset tekoälyjärjestelmille tarkistetaan osana voimassa olevan NLF-kehyksen vaatimustenmukaisuusarviointeja. Asetus ei soveltuisi suoraan ns. vanhan lainsäädäntökehyksen alaisiin tuotteisiin, kuten lentokoneisiin tai autoihin. Kuitenkin tekoälyjärjestelmille asetettavat vaatimukset tulisi huomioida, kun vanhaa lainsäädäntökehystä koskevia delegoituja tai täytäntöönpanosäädöksiä annetaan. 

Komissio antoi tekoälyä koskevan asetusehdotuksen yhteydessä ehdotuksen koneasetukseksi (KOM(2021) 202 lopullinen). Tekoälyasetuksella puututaan tekoälyjärjestelmien turvallisuusriskeihin, kun taas koneasetuksella varmistetaan tekoälyjärjestelmien turvallinen integrointi koneisiin. Komissio tarkastelee uudelleen sektorikohtaista tuoteturvallisuuslainsäädäntöä (ns. konedirektiivi, yleinen tuoteturvallisuusdirektiivi) sekä antaa ehdotuksia, jotta sääntely vastaisi paremmin uusia teknologioita, kuten tekoälyä, koskeviin vastuukysymyksiin. Komission odotetaan antavan vastuukysymyksiä koskeva lainsäädäntöehdotus loppuvuodesta 2021 tai alkuvuodesta 2022. 

Asetusehdotuksessa on huomioitu yhdenmukaisuus suunniteltujen tai valmistelussa olevien lainsäädäntöehdotusten kanssa. Nyt annettu ehdotus olisi yhdenmukainen sähkökauppadirektiivin 2000/31/EC kanssa ja komission digitaalisista palveluista antaman säädösehdotuksen (KOM(2020) 825 lopullinen) kanssa. Säädösehdotuksen tarkoituksena on uudistaa sähkökauppadirektiiviä.  

Asetuksen alaan sisältyvistä työsuhteen solmimisesta, työntekoa ja työsuhteen päättämisestä sekä työvälityksestä on myös EU-tason lainsäädäntöä, kuten määräaikaista- ja osa-aikatyötä koskevat direktiivit sekä joukkovähentämistä ja työntekijöiden kuulemista ja tiedottamista koskevat direktiivit. Myös työelämän yhdenvertaisuutta säännellään EU-tasolla. Työnvälitystä koskevat EURES-työnvälitystä koskeva asetus ja vuokratyödirektiivi. Työntekijöiden suojelua koskevia määräyksiä sisältyy myös EU:n perusoikeuskirjaan. 

3.4  Kielletyt tekoälyn käytännöt

Asetuksella kiellettäisiin seuraavat tekoälykäytänteet: 

– tekoälyjärjestelmän saattaminen markkinoille, käyttöönotto tai käyttö, joissa käytetään algoritmisia tekniikoita henkilön alitajuiseen manipulointiin tavalla, jotka voivat aiheuttaa henkilölle materiaalista, fyysistä tai psyykkistä haittaa.  

– tekoälyjärjestelmän saattaminen markkinoille, käyttöönotto tai käyttö, jossa hyödynnetään henkilön haavoittuvuutta iän tai fyysisen tai henkisen vamman vuoksi aiheuttaen tai todennäköisesti aiheuttaen henkilölle tai toiselle henkilölle fyysistä tai psykologista vahinkoa 

– tekoälyjärjestelmien saattaminen markkinoille, käyttöönotto tai käyttö viranomaisten toimesta tai niiden puolesta, joilla pyritään luonnollisten henkilöiden sosiaaliseen pisteytykseen johtaen haitalliseen, epäedulliseen, perusteettomaan tai suhteettomaan kohteluun 

– reaaliaikaisten biometristen etätunnistusjärjestelmien käyttö lainvalvontatarkoituksiin julkisesti käytettävissä olevissa tiloissa, lukuun ottamatta tietyissä tilanteissa rikoksen uhrien (esimerkiksi kadonneiden lasten), kohdennettu etsiminen, luonnollisten henkilöiden elämään tai fyysiseen turvallisuuteen kohdistuvan erityisen, merkittävän ja välittömän uhan tai terrori-iskun estäminen tai rikoksentekijän tai epäillyn rikoksentekijän paikantamiseksi 

3.5  Korkean riskin tekoälyjärjestelmät

Asetusehdotuksen mukaisesti korkean riskin tekoälyjärjestelmät tulisi saattaa unionin markkinoille tai otettava käyttöön vain, jos ne täyttävät tietyt pakolliset vaatimukset. Näillä vaatimuksilla pyrittäisiin varmistamaan, että unionissa käytettävissä olevat korkean riskin tekoälyjärjestelmät tai näiden tuotokset eivät aiheuta kohtuuttomia riskejä unionin tärkeille julkisille eduille, jotka tunnustetaan ja suojataan unionin lainsäädännössä. 

Korkean riskin tekoälyjärjestelmät olisi rajoitettava niihin, joilla on merkittävä haitallinen vaikutus ihmisten terveyteen, turvallisuuteen ja perusoikeuksiin unionissa.  

Tekoälyjärjestelmää pidetään korkeariskisenä, jos se on tarkoitettu käytettäväksi tuotteen turvakomponenttina tai se on tuote, johon sovelletaan unionin yhdenmukaistamislainsäädäntöä liitteen II mukaisesti tai jos tekoälyturvakomponentille tai tekoälytuotteelle on muutoinkin suoritettava kolmannen osapuolen vaatimustenmukaisuuden arviointi. 

Lisäksi asetusehdotuksen liitteessä III on lueteltu korkean riskin kategoriaan kuuluvia tekoälyjärjestelmiä. Näihin luetaan tekoälyjärjestelmien käyttö tietyin ehdoin muun muassa luonnollisten henkilöiden biometrisessä tunnistamisessa ja luokittelussa, kriittisen infrastruktuurin hallinnassa ja käytössä, valinnassa koulutukseen tai ammatilliseen koulutukseen, rekrytoinnissa tai työsuhteeseen liittyvässä päätöksenteossa, keskeisten palvelujen ja etujen saatavuuden määrittelyssä, luonnollisen henkilön luottokelpoisuuden arvioinnissa, ensiapupalvelujen lähettämisessä, lainvalvontaviranomaisten luonnollisten henkilöiden riskinarvioinneissa, muuttoliike-, turvapaikka- ja rajavalvontahallinnossa sekä oikeuslaitoksissa. 

3.6  Vaatimukset korkean riskin tekoälyjärjestelmille

Asetusehdotus edellyttää riskienhallintajärjestelmän perustamista ja ylläpitoa koko tekoälyjärjestelmän elinkaaren aikana huomioiden myös järjestelmän säännöllinen päivitys. Riskinhallintatoimenpiteisiin kuuluu muun muassa riskien vähentäminen mahdollisuuksien mukaan asianmukaisella suunnittelulla ja kehittämisellä ja tarvittavat toimenpiteet sellaisten riskien suhteen, joita ei voida poistaa. Tekoälyjärjestelmiä tulee myös testata riskien vähentämiseksi.  

Korkean riskin tekoälyjärjestelmien osalta, joissa hyödynnetään tekniikoita, joihin sisältyy tietomallien kouluttamista, on sovellettava asianmukaisia tiedonhallintakäytäntöjä. Nämä käytännöt sisältävät muun muassa asianmukaisen suunnittelun, tiedonkeruun, asianmukaiset tietojen valmistelutoimet, kuten merkinnät, puhdistuksen, rikastamisen ja yhdistämisen, sekä ennakkoarvion tarvittavien tietokokonaisuuksien saatavuudesta, määrästä ja soveltuvuudesta,  

Koulutus-, validointi- ja testaustietoaineistojen on oltava asianmukaisia, edustavia, virheettömiä ja täydellisiä ja niillä on oltava asianmukaiset tilastolliset ominaisuudet. Lisäksi tulee huomioida tekoälyjärjestelmän ominaispiirteet tai elementit, jotka ovat ominaisia erityiselle maantieteelliselle, käyttäytymis- tai toiminnalliselle ympäristölle, jossa korkean riskin tekoälyjärjestelmän on tarkoitus toimia.  

Tekniset asiakirjat on laadittava siten, että voidaan osoittaa, että korkean riskin tekoälyjärjestelmä on vaatimusten mukainen. Asiakirjat on toimitettava kansallisille toimivaltaisille viranomaisille ja ilmoitetuille laitoksille. Tarkemmat tiedot on eritelty asetusehdotuksen liitteessä IV.  

Korkean riskin tekoälyjärjestelmät on suunniteltava niin, että ne mahdollistavat tapahtumien automaattisen tallennuksen (”lokit”) korkean riskin tekoälyjärjestelmän toiminnan aikana. Näiden kirjausominaisuuksien on oltava hyväksyttyjen standardien tai yhteisten eritelmien mukaisia. Kirjausominaisuuksien on varmistettava tekoälyjärjestelmän toiminnan jäljitettävyys koko sen elinkaaren ajan huomioiden järjestelmän käyttötarkoitus 

Korkean riskin tekoälyjärjestelmät on suunniteltava ja kehitettävä siten, että niiden toiminta on riittävän läpinäkyvää, ja jotta käyttäjät voivat tulkita järjestelmän tuotosta ja käyttää sitä asianmukaisesti. Läpinäkyvyysasteessa on otettava huomioon korkean riskin tekoälyjärjestelmien käyttötarkoitus. Tekoälyjärjestelmän mukana on toimitettava kattavat ja selkeät käyttöohjeet, joissa tulee mainita muun muassa tekoälyjärjestelmän keskeisimmät ominaisuudet. 

Korkean riskin tekoälyjärjestelmät on suunniteltava ja kehitettävä siten, että luonnolliset henkilöt voivat valvoa niitä. Ihmisen suorittamalla valvonnalla on pyrittävä ehkäisemään tai minimoimaan korkean riskin tekoälyjärjestelmän mahdolliset riskit terveydelle, turvallisuudelle tai perusoikeuksille. Henkilöllä on oltava valvonnan suorittamiseen tarvittava pätevyys ja hänen on pystyttävä keskeyttämään turvallisesti ja välittömästi korkean riskin tekoälyjärjestelmän käyttö. Henkilöllä tulee olla mahdollisuus jättää huomiotta, korjata, ohittaa tai peruuttaa korkean riskin tekoälyjärjestelmän tuotos. 

Lisäksi korkean riskin tekoälyjärjestelmät on suunniteltava ja kehitettävä siten, että niiden käyttötarkoitus huomioon ottaen saavutetaan asianmukainen tarkkuustaso kestävyyden, tarkkuuden ja kyberturvallisuuden suhteen. Tekoälyjärjestelmien on toimittava näiden suhteen yhdenmukaisesti koko elinkaarensa ajan. 

3.7  Korkean riskin tekoälyjärjestelmien tarjoajien ja käyttäjien ja muiden osapuolten velvollisuudet

Asetusehdotuksen mukaisesti korkean riskin tekoälyjärjestelmien tarjoajien on huolehdittava, että tekoälyjärjestelmät ovat vaatimusten mukaisia, käytössä on laadunhallintajärjestelmä, laadittava korkean riskin tekoälyjärjestelmän tekninen dokumentaatio, huolehdittava testausmenettelyistä sekä asianmukaisesta vaatimustenmukaisuuden arviointimenettelystä ennen tekoälyjärjestelmän markkinoille saattamista tai käyttöönottoa. Tarjoajien on noudatettava rekisteröintivelvoitteita sekä toteutettava tarvittavat korjaavat toimet, jos korkean riskin tekoälyjärjestelmä ei ole asetettujen vaatimusten mukainen. Lisäksi on huolehdittava ilmoituksista viranomaisille vaatimustenvastaisuudesta ja toteutetuista korjaavista toimista, kiinnitettävä CE-merkintä korkean riskin tekoälyjärjestelmiin sekä kansallisen toimivaltaisen viranomaisen pyynnöstä osoitettava, että korkean riskin tekoälyjärjestelmä on asetettujen vaatimusten mukainen. 

Asetusehdotuksen mukaisesti unionin ulkopuolelle sijoittautuneet palveluntarjoajat nimeävät kirjallisella toimeksiannolla unioniin sijoittautuneen valtuutetun edustajan ennen tekoälyjärjestelmän markkinoille asettamista. 

Ennen korkean riskin tekoälyjärjestelmän saattamista markkinoille maahantuojien on varmistettava, että kyseisen tekoälyjärjestelmän tarjoaja huolehtinut velvoitteistaan ja varmistettava, että varastointi- tai kuljetusolosuhteet eivät vaaranna sen soveltuvuutta esitettyihin vaatimuksiin nähden sekä toimitettava kansallisille toimivaltaisille viranomaisille perustellusta pyynnöstä kaikki tarvittavat tiedot ja asiakirjat, jotta voidaan osoittaa vaatimustenmukaisuus.  

Ennen korkean riskin tekoälyn saattamista markkinoille jakelijoiden on varmistettava, että korkean riskin tekoälyjärjestelmässä on vaadittu CE-merkintä, että siihen on liitetty vaaditut asiakirjat ja käyttöohjeet ja että toimittaja ja maahantuoja soveltuvin osin ovat täyttäneet tässä asetusehdotuksessa asetetut velvoitteet. Lisäksi jakelijan on varmistettava, että varastointi- tai kuljetusolosuhteet eivät vaaranna sen soveltuvuutta esitettyihin vaatimuksiin nähden sekä toimitettava kansallisille toimivaltaisille viranomaisille perustellusta pyynnöstä kaikki tarvittavat tiedot ja asiakirjat, jotta voidaan osoittaa vaatimustenmukaisuus.  

Rajoittamatta tarjoajien velvollisuuksia ja vastuuta, kolmansien osapuolten on varmistettava, että ne tekevät yhteistyötä ja eivät estä palveluntarjoajia, maahantuojia, jakelijoita tai käyttäjiä täyttämästä tämän asetuksen mukaisia velvoitteitaan. Kaikkia jakelijoita, maahantuojia, käyttäjiä tai muita kolmansia osapuolia pidetään palveluntarjoajina, jos ne saattavat markkinoille tai ottavat käyttöön korkean riskin tekoälyjärjestelmän omalla nimellään tai tavaramerkillään, muuttavat jo markkinoille saatetun tai käyttöön otetun korkean riskin tekoälyjärjestelmän tarkoitusta tai tekevät huomattavan muutoksen korkean riskin tekoälyjärjestelmään. 

Korkean riskin tekoälyjärjestelmien käyttäjien on käytettävä järjestelmiä mukana olevien käyttöohjeiden mukaisesti ja seurattava korkean riskin tekoälyjärjestelmän toimintaa käyttöohjeiden perusteella. Jos on syytä katsoa, että käyttöohjeiden mukainen käyttö saattaa muodostaa riskin, heidän on ilmoitettava asiasta tarjoajalle tai jakelijalle ja keskeytettävä järjestelmän käyttö. Niiden on myös ilmoitettava tarjoajalle tai jakelijalle, jos he ovat havainneet vakavan vaaratilanteen tai toimintahäiriön ja keskeyttäneet tekoälyjärjestelmän käytön. Käyttäjien on lisäksi säilytettävä kyseisen korkean riskin tekoälyjärjestelmän luomat lokit tietyin ehdoin. Tässä yhteydessä edellä mainitut seikat pätisivät, kun tekoälyjärjestelmän käyttäjän olisi luonnollinen henkilö tai oikeushenkilö, viranomainen, virasto tai muu elin, jonka alaisuudessa tekoälyjärjestelmää käytetään pois lukien henkilökohtainen, ei-ammattimaisen käyttö. 

3.8  Ilmoitetut viranomaiset ja ilmoitetut laitokset

Asetusehdotuksen mukaisesti kunkin jäsenvaltion on nimettävä tai perustettava ilmoitusviranomainen, joka vastaa vaatimustenmukaisuuden arviointilaitosten arvioinnista, nimeämisestä ja ilmoittamisesta sekä niiden seurantaa varten tarvittavien menettelyjen perustamisesta ja toteuttamisesta. Ilmoitusviranomaiset on perustettava ja organisoitava siten, että vaatimustenmukaisuuden arviointilaitosten kanssa ei esiinny eturistiriitoja ja että niiden toiminnan objektiivisuus ja puolueettomuus turvataan.  

Ilmoitettujen laitosten on todennettava korkean riskin tekoälyjärjestelmän vaatimustenmukaisuus arviointimenettelyjen mukaisesti vastaten myös alihankinnoistaan. Komissio varmistaa koordinoinnin ja yhteistyön vaatimustenmukaisuuden arviointimenettelyissä jäsenmaiden nimetyistä edustajista koostuvan alakohtaisen yhteistyöryhmän myötä. 

3.9  Standardit, vaatimustenmukaisuuden arviointi, sertifikaatit, rekisteröinti ja läpinäkyvyysvelvoitteet

Korkean riskin tekoälyjärjestelmien, jotka ovat yhdenmukaistettujen standardien tai niiden osien mukaisia oletetaan olevan tämän asetusehdotuksen vahvistettujen vaatimusten mukaisia siinä määrin kuin nämä standardit kattavat vaatimukset. Jos yhdenmukaistettuja standardeja ei ole tai jos komissio katsoo, että asiaankuuluvat yhdenmukaistetut standardit eivät ole riittäviä tai että on tarpeen puuttua erityisiin turvallisuus- tai perusoikeusongelmiin, komissio voi täytäntöönpanosäädöksillä hyväksyä yhteiset vaatimukset, joiden valmistelun osana komissio kerää alakohtaisen yhteistyöryhmän tai asiantuntijaryhmien näkemyksiä. 

Korkean riskin tekoälyjärjestelmät, jotka on sertifioitu tai joille on annettu vaatimustenmukaisuusvakuutus kyberturvallisuusjärjestelmän mukaisesti, katsotaan olevan tämän asetusehdotuksen kyberturvallisuusvaatimusten mukainen, sikäli kuin kyberturvallisuustodistus tai vaatimustenmukaisuusvakuutus tai sen osat kattavat nämä vaatimukset. 

Vaatimustenmukaisuuden arvioinnin osalta palveluntarjoajan on noudatettava joko seuraavista menettelyistä liitteessä VI tarkoitettua sisäiseen valvontaan perustuvaa vaatimustenmukaisuuden arviointimenettelyä tai liitteessä VII tarkoitettua vaatimustenmukaisuuden arviointimenettelyä, joka perustuu laatujärjestelmän arviointiin ja teknisten asiakirjojen arviointiin ilmoitetun laitoksen toimesta. 

Korkean riskin tekoälyjärjestelmissä on tehtävä uusi vaatimustenmukaisuuden arviointimenettely aina, kun järjestelmää muutetaan olennaisesti. Jos kyseessä on korkean riskin tekoälyjärjestelmä, joka jatkaa oppimista markkinoille saattamisen tai käyttöönoton jälkeen, palveluntarjoajan ennalta määrittelemät muutokset eivät saa olla merkittäviä muutoksia. 

Ilmoitettujen laitosten antamat sertifikaatit ovat voimassa niiden ilmoittaman ajanjakson, joka saa olla enintään viisi vuotta. Palveluntarjoajan hakemuksesta todistuksen voimassaoloa voidaan pidentää uudelleenarvioinnin perusteella. Markkinavalvontaviranomaiset voivat sallia erityisten korkean riskin tekoälyjärjestelmien markkinoille saattamisen tai käyttöönoton rajoitetuksi ajaksi asianomaisen jäsenvaltion alueella poikkeuksellisista syistä yleisen turvallisuuden tai ihmisten elämän ja terveyden suojelemiseksi, ympäristönsuojelun ja tärkeimpien teollisuus- ja infrastruktuurivarojen suojaamiseksi. 

Palveluntarjoajan on laadittava kirjallinen EU-vaatimustenmukaisuusvakuus kullekin tekoälyjärjestelmälle ja pidettävä se kansallisten toimivaltaisten viranomaisten saatavilla kymmenen vuoden ajan tekoälyjärjestelmän saattamisesta markkinoille tai käyttöönotosta. CE-merkintä on kiinnitettävä näkyvästi, luettavasti ja pysyvästi korkean riskin tekoälyjärjestelmille.  

Tiettyjen tekoälyjärjestelmien läpinäkyvyysvelvoitteet koskevat järjestelmiä, jotka ovat vuorovaikutuksessa ihmisten kanssa, joita käytetään havaitsemaan tunteita tai määrittämään yhteys (sosiaalisiin) luokkiin biometristen tietojen perusteella tai joita käytetään tuottamaan tai manipuloimaan sisältöä (”deep fake”). Kun henkilöt ovat tekemisissä tekoälyjärjestelmän kanssa tai henkilön tunteet tai ominaisuudet tunnistetaan automatisoidusti, henkilöille on kerrottava tilanteesta. Jos tekoälyjärjestelmää käytetään sellaisen kuvan, ääni- tai videosisällön tuottamiseen tai käsittelyyn, joka muistuttaa huomattavasti aitoa sisältöä, olisi oltava velvollisuus ilmoittaa, että sisältö on luotu automaattisin keinoin, jollei poikkeukset perustu laillisiin tarkoituksiin kuten lainvalvonta tai sananvapauden toteuttaminen. 

3.10  Toimenpiteet innovaatioiden edistämiseksi ja pienten toimijoiden huomioiminen

Asetusehdotuksessa kannustetaan kansallisia toimivaltaisia viranomaisia perustamaan sääntelyhiekkalaatikoita ja asettamaan hallinnon, valvonnan ja vastuun kehyksen. Tekoälyä säätelevät hiekkalaatikot luovat valvotun ympäristön innovatiivisten tekniikoiden testaamiseksi rajoitetun ajan toimivaltaisten viranomaisten kanssa sovitun testaussuunnitelman perusteella. Asetuksessa säädetään henkilötietojen käsittelystä sääntelyhiekkalaatikoiden yhteydessä. Tekoälyä sääntelevän hiekkalaatikon osallistujat ovat asetusehdotuksen mukaisesti vastuussa vahingoista, joita kolmannelle osapuolelle on aiheutunut hiekkalaatikossa tapahtuvan kokeilun seurauksena. 

Jäsenvaltioiden toimivaltaisten viranomaisten, jotka ovat perustaneet tekoälyn sääntelyhiekkalaatikot, on koordinoitava toimintaansa ja tehtävä yhteistyötä Euroopan tekoälylautakunnan puitteissa. Jäsenvaltioiden on lisäksi tarjottava pienille toimittajille ja aloitteleville yrityksille ensisijainen pääsy tekoälyn sääntelyhiekkalaatikkoihin sekä järjestää tämän asetuksen soveltamista koskevia erityisiä tiedotustoimia, jotka on räätälöity pienten palveluntarjoajien ja käyttäjien tarpeisiin.  

Lisäksi Euroopan tekoälylautakunnan tuella, Euroopan digitaalisten innovaatiokeskusten sekä komission ja jäsenvaltioiden kansallisella tai EU:n tasolla perustamien testaus- ja kokeilulaitosten avulla olisi mahdollista edistää tämän asetuksen täytäntöönpanoa. 

Komission tiedonanto (KOM(2021) 205 lopullinen) ja sen liitteenä oleva päivitys tekoälyn eurooppalaisesta koordinoidusta toimintasuunnitelmasta täydentävät asetusehdotusta politiikka-aloitteiden myötä. Tekoälysovellutusten tuominen markkinoille vaatii kokeiluja ja testausta käytännön toimintaympäristöissä, jonka vuoksi komissio on ehdottanut perustettavaksi tekoälyn testaus- ja kokeiluympäristöt eurooppalaisen huippuosaamisen edistämiseksi.  

3.11  Euroopan tekoälyneuvosto

Asetusehdotuksen mukaisesti perustettaisiin Euroopan tekoälyneuvosto (European AI Board), joka koostuu jäsenvaltioiden ja komission edustajista. Neuvosto helpottaisi asetuksen sujuvaa, tehokasta ja yhdenmukaistettua täytäntöönpanoa edistämällä kansallisten valvontaviranomaisten ja komission yhteistyötä ja antamalla neuvoja ja asiantuntemusta komissiolle keräten ja jakaen myös parhaita käytäntöjä jäsenvaltioiden kesken. 

3.12  Kansalliset toimivaltaiset viranomaiset sekä EU:n tietokanta korkean riskin tekoälyjärjestelmistä

Asetusehdotuksen mukaisesti komissio perustaisi ja ylläpitäisi yhteistyössä jäsenvaltioiden kanssa EU-tietokantaa, joka sisältää tiedot korkean riskin tekoälyjärjestelmistä, jotka on rekisteröity asetusehdotuksen mukaisesti. Komissio toimisi tietokannan rekisterinpitäjänä. Tietokanta olisi julkinen. 

Kansallisella tasolla jäsenvaltioiden olisi nimettävä yksi tai useampi kansallinen toimivaltainen viranomainen ja niiden joukossa kansallinen valvontaviranomainen valvomaan asetuksen soveltamista ja täytäntöönpanoa. Jäsenvaltioiden on varmistettava, että kansallisille toimivaltaisille viranomaisille annetaan riittävät taloudelliset ja henkilöresurssit tehtäviensä suorittamiseksi. Euroopan tietosuojavaltuutettu toimisi toimivaltaisena viranomaisena unionin toimielinten, virastojen ja elinten valvonnassa, kun ne kuuluvat tämän asetuksen soveltamisalaan. 

3.13  Markkinoiden jälkeinen seuranta, tietojen jakaminen, markkinoiden valvonta

Markkinoille asettamisen jälkeinen seurantajärjestelmä perustuu seurantasuunnitelmaan, joka on osa teknistä dokumentaatiota. Tekoälyjärjestelmien tarjoajien on ilmoitettava markkinavalvontaviranomaisille kaikista vakavista tapahtumista tai toimintahäiriöistä, jotka ovat perusoikeuksien suojaamiseksi tarkoitettujen unionin lainsäädännön mukaisten velvoitteiden rikkomuksia. Kansallisen valvontaviranomaisen on raportoitava säännöllisesti komissiolle asiaankuuluvien markkinavalvontatoimien tuloksista ja varmistettava tarvittavat toimenpiteen ml. tuotteen poistaminen markkinoilta. 

Artiklan 66 nojalla komissio voi puuttua toisten jäsenvaltioiden tekemiin toimenpiteisiin koskien tekoälyjärjestelmien toimintavian korjaamista, jos toinen jäsenvaltio on tehnyt tästä aloitteen tai jäsenvaltion toimenpiteet ovat unionin lainsäädännön vastaisia. Artiklan 67 nojalla jäsenvaltion markkinavalvontaviranomainen voi määrätä keskeytettäväksi myös asetuksen edellytykset sinänsä täyttävän järjestelmän käytön, jos se on uhka hengelle, terveydelle, perusoikeuksille tai muulle yleiselle edulle. Tässä menettelyssä kontrollikeinona olisi komission mahdollisuus arvioida jäsenvaltion toimenpiteiden riittävyyttä ja tarvittaessa ehdottaa sopivia toimenpiteitä jäsenvaltioille. 

3.14  Menettelytavat

Komission ja jäsenvaltioiden on kannustettava ja helpotettava käytännesääntöjen laatimista, joiden tarkoituksena on edistää asetusehdotuksessa esitettyjen vaatimusten vapaaehtoista soveltamista muihin tekoälyjärjestelmiin kuin korkean riskin tekoälyjärjestelmiin. Muiden kuin korkean riskin tekoälyjärjestelmien tarjoajat voivat itse luoda ja toteuttaa käytännesäännöt, jotka voivat sisältää myös vapaaehtoisia sitoumuksia, jotka liittyvät esimerkiksi ympäristön kestävyyteen, vammaisten henkilöiden saavutettavuuteen, sidosryhmien osallistumiseen tekoälyjärjestelmien suunnitteluun ja kehittämiseen sekä kehitystiimien monimuotoisuuteen. Käytännesäännöt voivat koskea yhtä tai useampaa tekoälyjärjestelmää ottaen huomioon kyseisten järjestelmien käyttötarkoituksen samankaltaisuus. 

3.15  Luottamuksellisuus ja rangaistukset

Asetusehdotuksen mukaisesti tämän asetuksen soveltamiseen osallistuvien kansallisten toimivaltaisten viranomaisten ja ilmoitettujen laitosten on kunnioitettava tehtäviensä ja toimintojensa aikana saatujen tietojen luottamuksellisuutta. Komissio ja jäsenvaltiot voivat tarvittaessa vaihtaa luottamuksellisia tietoja niiden kolmansien maiden sääntelyviranomaisten kanssa, joiden kanssa ne ovat tehneet kahden- tai monenvälisiä luottamuksellisuussopimuksia, jotka takaavat riittävän luottamuksellisuuden. 

Asetuksen rikkomisesta säädettyjen seuraamusten on oltava tehokkaita, oikeasuhteisia ja varoittavia. Niissä on otettava erityisesti huomioon pienimuotoisten tarjoajien ja toiminnan aloittamisen edut sekä niiden taloudellinen elinkelpoisuus. Hallinnollisia sakkoja voitaisiin määrätä enintään 30 000 000 euroa tai, jos rikkoja on yritys, enintään 6 prosenttia edellisen tilikauden maailmanlaajuisesta vuotuisesta kokonaisliikevaihdosta sen mukaan, kumpi on suurempi. Vaatimusten tai velvoitteiden noudattamatta jättämisestä voitaisiin tietyin ehdoin soveltaa hallinnollisia sakkoja enintään 20 000 000 euroa, tai jos rikoksentekijä on yritys, enintään 4% edellisen tilikauden maailmanlaajuisesta vuotuisesta kokonaisliikevaihdosta sen mukaan, kumpi on korkeampi. Virheellisten, puutteellisten tai harhaanjohtavien tietojen toimittamisesta ilmoitetuille laitoksille tai kansallisille toimivaltaisille viranomaisille voitaisiin määrätä sakkoja enintään 10 000 000 euroa, tai jos rikoksentekijä on yritys, enintään 2 % edellisen tilikauden maailmanlaajuisesta vuotuisesta liikevaihdosta sen mukaan, kumpi on suurempi. 

Euroopan tietosuojavaltuutettu voi määrätä hallinnollisia sakkoja unionin toimielimille, virastoille ja elimille, jotka kuuluvat tämän asetuksen soveltamisalaan. 

3.16  Toimivallan siirto ja loppusäädökset

Asetusehdotuksen mukaisesti komissiolle siirrettäisiin laajasti valtaa antaa delegoituja säädöksiä määräämättömäksi ajaksi asetuksen liitteiden muuttamiseksi. Artiklassa 73 säädetään delegointivallan käytöstä. Asetusehdotuksen 4 artiklan mukaan delegoiduilla säädöksillä olisi muun muassa mahdollista muuttaa asetuksen liitettä I tekoälyn hyödyntämisessä käytettävistä tekniikoista. Liite I on merkityksellinen asetuksessa käytetyn tekoälyn määritelmän osalta.  

Komissio voisi 7 artiklan 1 kohdan mukaan muuttaa asetuksen liitettä III ja lisätä tekoälyjärjestelmiä korkean riskin kategoriaan. Kyseisessä artiklassa säädetyt perusteet, joilla komissio voisi muuttaa liitettä III, mahdollistavat laajasti uusien tekoälyjärjestelmien lisäämisen korkean riskin kategoriaan. Delegoitujen säädösten tarkoituksena on lisätä sääntelyn joustavuutta ja varmistaa, että tekoälyn käytön kehitys voitaisiin huomioida. Samalla kuitenkin on huomioitava sääntelyn ulottuvuuden mahdollinen laajentuminen. 

Lisäksi komissio voisi antaa delegoituja säädöksiä 11 artiklan 3 kohdan nojalla korkean riskin tekoälyjärjestelmien teknisen dokumentaation yksityiskohdista, jotka sisältyvät liitteeseen IV, sekä 43 artiklan 5 ja 6 kohdan nojalla vaatimustenmukaisuuden arviointiprosessista, jota koskevat liitteet VI ja VII. Komissio voisi antaa delegoituja säädöksiä 48 artiklan 5 kohdan nojalla EU-vaatimustenmukaisuusvakuuden sisällöstä, jota koskee liite V. 

Lisäksi komissiolle ehdotetaan siirrettäväksi täytäntöönpanovaltaa, jonka nojalla se voisi antaa täytäntöönpanosäädöksiä tietyistä asioista. Komissio voisi ehdotuksen mukaan antaa täytäntöönpanosäädöksiä tarkastusmenettelyn mukaisesti seuraavista asioista: päätökset ilmoitettuja laitoksia koskevista korjaavista toimenpiteistä (37 artiklan 4 kohta) ja yhteisistä eritelmistä (41 artikla 1 kohta). Komissio voisi antaa täytäntöönpanosäädöksiä tarkemmista ehdoista ja menettelyistä koskien sääntelyhiekkalaatikoiden toimintaa, niihin osallistumista sekä osallistujien velvollisuuksista ja oikeuksista (53 artiklan 6 kohta). Lisäksi komissio voisi antaa täytäntöönpanosäädöksiä jälkivalvontasuunnitelmaa koskevan lomakkeen yksityiskohdista (61 artiklan 3 kohta). Täytäntöönpanosäädöksiä annettaessa komissiota avustaisi komitologiakomitea asetuksen (EU) N:o 182/2011 nojalla. 

Komissiolle delegoitavan säädösvallan ja täytäntöönpanovallan laajuutta ja tarkoituksenmukaisuutta on syytä tarkastella asetuksen jatkovalmistelussa. Perustuslakivaliokunnan mukaan yksilön oikeuksien ja velvollisuuksien perusteista tulee säätää lainsäätämisjärjestyksessä hyväksyttävän unionin säädöksen tasolla (PeVL 12/2012 vp). Näin ollen täytäntöönpanosäädösten antamista sääntelyhiekkalaatikoiden osallistujien velvollisuuksista ja oikeuksista tulee erityisesti tarkastella asetuksen jatkovalmistelussa. 

Loppusäädösten mukaan asetetaan siirtymäkausi asetuksen soveltamisen alkamispäivälle, jotta helpotettaisiin sujuvaa täytäntöönpanoa kaikille asianosaisille. Siirtymäkausi olisi tietyin poikkeuksin 24 kuukautta asetuksen voimaantulosta. 

Ehdotuksen oikeusperusta ja suhde suhteellisuus- ja toissijaisuusperiaatteisiin

Ehdotus perustuu Euroopan unionin toiminnasta tehdyn sopimuksen (SEUT) 114 artiklaan, jonka nojalla voidaan antaa sisämarkkinoiden toteuttamista ja toimintaa koskevia säännöksiä jäsenvaltioiden lainsäädäntöjen lähentämiseksi, sekä SEUT 16 artiklaan, jonka nojalla voidaan antaa henkilötietojen suojaa koskevia säännöksiä. Ehdotusta käsitellään noudattaen tavallista lainsäätämisjärjestystä, jossa Euroopan parlamentti ja neuvosto hyväksyvät yhdessä asetuksen. Neuvostossa edellytetään määräenemmistöpäätöksentekoa.  

Ehdotus liittyy keskeisesti EU:n sisämarkkinoiden toiminnan varmistamiseen, koska tekoälyä käytetään monissa eri tuotteissa ja palveluissa. Komissio on perustellut oikeusperustan valintaa muun muassa sillä, että eräät EU:n jäsenvaltiot suunnittelevat jo kansallisia sääntöjä tekoälystä, jolloin riskinä olisi tekoälyä koskeva sääntelyn pirstaloituminen EU:n sisämarkkinoilla ja sääntelyn oikeusvarmuuden heikentyminen. Lisäksi ehdotus sisältää henkilötietojen suojaa koskevia säännöksiä. Ehdotus sisältää muun muassa kiellon käyttää reaaliaikaista biometrista tunnistamista poliisitoiminnassa, mikä mahdollisesti rajoittaisi kansallisten viranomaisten mahdollisuuksia käsitellä biometrista dataa.  

Komissio katsoo asetusehdotuksen olevan Euroopan unionista tehdyn sopimuksen (SEU) 5 artiklassa tarkoitetun toissijaisuusperiaatteen mukainen. Komission mukaan ehdotuksen tavoitteet eivät ole tehokkaasti toteutettavissa jäsenvaltioiden lainsäädännön tasolla. Jäsenvaltioiden lainsäädäntöjen eroavaisuudet heikentäisivät tekoälyyn perustuvien tuotteiden ja palveluiden vaihdantaa sisämarkkinoilla sekä voisivat aiheuttaa oikeudellista epävarmuutta. Yhtenäinen eurooppalainen sääntely turvaisi toimijoiden tasapuoliset toimintaedellytykset sekä ihmisten turvallisuuden. 

Komission mukaan asetusehdotus on myös SEU 5 artiklassa tarkoitetun suhteellisuusperiaatteen mukainen, eikä se ylitä sitä, mikä on tarpeen tavoitteiden saavuttamiseksi. Ehdotus noudattaa riskiperustaista lähestymistapaa, ja korkean riskin tekoälyjärjestelmiin kohdistuu korkeampia vaatimuksia kuin vähemmän haitallisiin tekoälyjärjestelmiin. Olemassa oleva sääntely muodostaa pohjan uudelle tekoälyä koskevalle sääntelylle. Komission mukaan korkean riskin tekoälyjärjestelmille asetettavat vaatimukset ovat tarpeellisia vähentämään perusoikeuksille ja turvallisuudelle aiheutuvia riskejä siltä osin kuin näistä ei ole säädetty muussa lainsäädännössä. 

Valtioneuvosto katsoo alustavasti, että komission näkemykset asetuksen oikeusperustasta, toissijaisuus- ja suhteellisuusperiaatteista ovat asianmukaisia. Asetuksen soveltamisala on kuitenkin laaja, ja asetus asettaa verrattain yksityiskohtaisia ja täsmentymättömiä vaatimuksia sekä tekoälyjärjestelmille että niiden tuottajille, maahantuojille ja käyttäjille. Komission mahdollisuudet antaa delegoituja säädöksiä vaikeuttavat niin ikään sääntelyn vaikutusten arviointia. 

Ehdotuksen vaikutukset

5.1  Komission vaikutustenarvio

Komission vaikutustenarvioinnin perusteella asetusehdotuksella vahvistetaan oikeusvarmuutta, ihmisten luottamusta tekoälyyn, tekoälyjärjestelmien rajat ylittävää liikkumista sekä ehkäistään sitä, että jäsenvaltiot ryhtyisivät yksipuolisiin toimiin, jotka johtaisivat sisämarkkinoiden pirstaloitumiseen. Komissio on korostanut asetusehdotuksen positiivisten taloudellisten vaikutusten syntymistä erityisesti sisämarkkinoiden toimivuuden parantumisen myötä. 

Ehdotuksen tavoitteena on vahvistaa Euroopan kilpailukykyä ja teollista perustaa. Asetusehdotuksen tavoitteen mukaisesti EU jatkaa nopeasti kasvavan tekoälyekosysteemien kehittämistä innovatiivisissa palveluissa ja tuotteissa, joihin sisältyy tekoälyteknologioita tai erillisiä tekoälyjärjestelmiä lisäten digitaalista suvereniteettia. Ehdotuksella pyritään varmistamaan perusoikeuksien korkeatasoinen suojelu, ja sen tarkoituksena on puuttua erilaisiin riskilähteisiin selkeästi määritellyn riskipohjaisen lähestymistavan avulla.  

Asetusehdotuksen mukaisesti tavoitteena on pitää vaatimustenmukaisuuden kustannukset mahdollisimman alhaisina ja siten välttää tarpeetonta hidastumista käyttöönotossa, joka johtuisi korkeammista hinnoista ja vaatimustenmukaisuuden kustannuksista. Asetusehdotuksessa pyritään lisäämään selkeyttä ja yksinkertaistamaan uusien säännösten täytäntöönpanoa takaamalla täysi yhdenmukaisuus EU:ssa sovellettavan voimassa olevan alakohtaisen unionin lainsäädännön kanssa. 

Pk-yritysten mahdollisten haittojen poistamiseksi asetusehdotus sisältää säännöksiä, joilla tuetaan sääntöjen noudattamista ja pienennetään kustannuksia, mukaan lukien sääntelyhiekkalaatikoiden luominen ja velvollisuus ottaa huomioon pk-yritysten edut. 

Tämä ehdotus asettaa joitain rajoituksia liiketoiminnan vapaudelle ja taiteen ja tieteen vapaudelle sen varmistamiseksi, että yleistä etua koskevia pakottavia syitä, kuten terveyttä, turvallisuutta, kuluttajansuojaa ja muiden perusoikeuksien suojelua, noudatetaan. Vaikutustenarvioinnin mukaan nämä rajoitukset ovat oikeasuhteisia ja rajoitettu vähimmäismäärään, joka on tarpeen vakavien turvallisuusriskien ja todennäköisten perusoikeuksien loukkausten estämiseksi ja lieventämiseksi. 

Lisääntyneet avoimuusvelvoitteet eivät myöskään vaikuta suhteettomasti immateriaalioikeuksien suojaan, koska ne rajoittuvat vain vähimmäistietoihin, jotka yksityishenkilöt tarvitsevat voidakseen käyttää oikeuttaan tehokkaisiin oikeussuojakeinoihin ja tarvittavaan avoimuuteen valvontaviranomaisille heidän toimeksiantojensa mukaisesti. 

Seuranta- ja arviointimekanismin luominen on ratkaisevan tärkeää sen varmistamiseksi, että ehdotus saavuttaa tavoitteensa. Komissio vastaa ehdotuksen vaikutustenseurannasta. Se perustaa järjestelmän itsenäisen korkean riskin tekoälysovellusten rekisteröimiseksi julkiseen EU:n tietokantaan. Tämä rekisteröinti antaa myös toimivaltaisille viranomaisille, käyttäjille ja muille asianomaisille mahdollisuuden tarkistaa, täyttääkö korkean riskin tekoälyjärjestelmä ehdotuksessa asetetut vaatimukset, ja valvoa tehokkaammin niitä tekoälyjärjestelmiä, jotka aiheuttavat korkean riskin perusoikeuksille.  

Komissio julkaisee kertomuksen, jossa arvioidaan ja tarkastellaan ehdotettua tekoälykehystä viisi vuotta sen voimaantulopäivästä. Henkilöstökustannusten ulkopuolisia kustannuksia katetaan Digitaalinen Eurooppa –ohjelman kautta sillä edellytyksellä, että sääntelyllä pyritään kiihdyttämään tekoälyn kehittämistä ja käyttöönottoa Euroopassa. 

5.2  Vaikutukset Suomen kannalta

5.2.1  Taloudelliset vaikutukset

Asetuksen taloudelliset vaikutuksia kansallisesti ei ole selvitetty. Asetuksen taloudellisia vaikutuksia voidaan pitää osittain ennakoimattomana. Lisäksi erityisesti on huomioitava pk-yrityksille kohdistuvat vaikutukset. Jäsenvaltioiden on nimettävä valvontaviranomaiset, jotka vastaavat lainsäädännön vaatimusten täytäntöönpanosta. Valvontatoiminnot voisivat perustua jo olemassa oleviin järjestelyihin, esimerkiksi vaatimustenmukaisuuden arviointilaitoksista tai markkinavalvonnasta, mutta edellyttäisi riittävää teknistä asiantuntemusta sekä henkilö- ja taloudellisia resursseja. Uudet viranomaistehtävät aiheuttaisivat taloudellisia kustannuksia kansallisesti. Komission vaikutustenarvioinnin mukaan kussakin jäsenvaltiossa olemassa olevasta rakenteesta riippuen tämä voi olla 1–25 kokopäiväistä henkilöresurssia jäsenvaltiota kohden. 

Komission arvion mukaan yritysten tai viranomaisten, jotka kehittävät tai käyttävät tekoälysovelluksia ja aiheuttavat korkean riskin kansalaisten turvallisuudelle tai perusoikeuksille, olisi noudatettava erityisiä vaatimuksia ja velvoitteita. Näiden vaatimusten noudattaminen merkitsisi noin 6000–7000 euron kustannuksia keskimääräisen, noin 170 000 euron korkean riskin tekoälyjärjestelmän toimittamisesta vuoteen 2025 mennessä. Ihmisen suorittaman tekoälyjärjestelmän valvonnan kustannukset olisivat tapauksesta riippuen arviolta noin 5000–8000 euroa vuodessa. Vaatimustenmukaisuuksien todentamiskustannukset olisivat arviolta 3000–7500 euroa korkean riskin tekoälyjärjestelmien toimittajille.  

Jatkokäsittelyssä on tarkennettava ehdotusten taloudellisia vaikutuksia muun muassa virastoille aiheutuvien lisätehtävien suhteen.  

5.2.2  Vaikutukset kansalliseen lainsäädäntöön

Oikeusministeriö on asettanut 18.1.2021 hallinnon automaattista päätöksentekoa koskevaa yleislainsäädäntöä valmistelevan työryhmän. Valtiovarainministeriö on puolestaan asettanut 1.4.2021 julkisen hallinnon tietojärjestelmiä koskevan yleislainsäädännön tarkistamista valmistelevan työryhmän huomioiden muun muassa automaattista päätöksentekoa ja tekoälyn hyödyntämistä koskevat tarpeet. Asetusehdotus tekoälystä asettaa mahdollisesti reunaehdot kansallisesti valmisteltavalle yleislainsäädännölle.  

Asetusehdotus sijoittuu kansallisessa lainsäädännössä sekä perustus- että erityislainsäädännön alueille, ja ulottuu useille eri toimialoille, kuten mm. julkinen sektori, koulutus, turvallisuus, oikeusjärjestelmä ja liikenne, työlainsäädäntö, työvoimapalvelut ja sosiaaliturva sekä luottolaitokset ja luottotietotoiminnan harjoittaminen. Asetuksella perustetaan uusia kansallisia viranomaistehtäviä, joten asetus edellyttää muutoksia viranomaisten tehtäviä koskevaan sääntelyyn. 

Yleisesti säädöksen suhdetta yleiseen tietosuojasääntelyyn ja muuhun lainsäädäntöön on syytä arvioida huolella. Erityisesti korkean riskin järjestelmien käyttäjiä koskevan sääntelyn osalta on arvioitava, aiheutuisiko asetusehdotuksesta tarvetta muuttaa kansallista sääntelyä ja sitä, miten valmistelussa voidaan turvata riittävästi kansalaisten ja työntekijöiden asema. 

Asetusehdotuksella voi olla vaikutuksia luottolaitoksia koskevaan lainsäädäntöön sekä muuhun luottotietojen käsittelyä koskevaan sääntelyyn. Luottolaitostoimintaa koskee erityisesti luottolaitostoiminnasta annettu laki (610/2014), joka sisältää muun muassa säännökset luottolaitosten riskienhallinta- ja ohjausjärjestelmistä. Lisäksi luottolaitosten valvontavaltuuksia säännellään laissa Finanssivalvonnasta (878/2008), jota voi olla tarpeen tarkistaa asetusehdotuksen sisältämien säännösten johdosta, koska asetusehdotuksen mukaisesti kunkin jäsenvaltion on nimettävä kansalliset toimivaltaiset viranomaiset asetuksen soveltamisen ja täytäntöönpanon varmistamiseksi. 

5.2.3  Vaikutukset viranomaisten toimintaan

Asetusehdotuksella olisi todennäköisesti merkittäviä vaikutuksia viranomaisten toimintaan. Voidaan arvioida, että tekoälyjärjestelmien valvonta eroaa huomattavasti muihin tuotteisiin kohdistuvasta markkinavalvonnasta eikä suurimmalla osalla Suomessa tällä hetkellä toimivista markkinavalvontaviranomaisista ole valvonnan suorittamisen edellyttämää pätevyyttä. Näin ollen uusien markkinavalvontaviranomaisten nimeäminen tai jo olemassa olevien markkinavalvontaviranomaisten tehtäväkentän laajentaminen edellyttäisivät kumpikin lisäresursseja muun muassa viranomaisten perehdyttämiseksi ja asianmukaisten digitaalisten valvontakeinojen hyödyntämiseksi. 

Asetusehdotuksen tarkoituksena on muodostaa yleiset unionin laajuiset vaatimukset ja standardit korkean riskin tekoälyjärjestelmille. Lisäksi ehdotuksessa luodaan puitteet vapaaehtoisten menettelyohjeiden (codes of conduct) luomiselle ja kehotetaan jäsenvaltioita ja komissiota edistämään tällaisten sääntöjen tuottamista ja omaksumista. Tämä voi madaltaa viranomaisten kynnystä ottaa tekoälyjärjestelmiä käyttöön, jos niille sopivat tekoälyratkaisut ovat jatkossa helpommin saatavissa markkinoilta niin, että niiden voidaan luottaa täyttävän käyttötarkoituksesta riippuen joko asetuksessa tai vapaaehtoisissa säännöissä asetetut vaatimukset. Lisäksi tekoälyä koskevan sääntelyn olemassaolo itsessään voi lisätä luottamusta tekoälyjärjestelmiin ja sitä kautta edistää niiden käyttöönottoa viranomaisten toiminnassa. Toisaalta ehdotuksen mahdolliset vaikutukset tekoälyjärjestelmien kehittämisen kustannuksiin ja innovaatioiden syntymiseen heijastuisivat myös viranomaisiin, koska Suomessa viranomaiset ovat toimineet digitalisaation edelläkävijöinä ja ovat ottaneet tekoälyä hyödyntäviä järjestelmiä käyttöönsä. 

Ehdotuksen liitteessä III määritellyt käyttötarkoitukset, jotka tekevät tekoälyjärjestelmästä korkean riskin järjestelmän, liittyvät useilta osin viranomaisten toimintaan. Tekoälyjärjestelmästä korkean riskin järjestelmän tekevät käyttötarkoitukset eivät rajaudu pelkästään hallintopäätösten tekemiseen, vaan ne koskevat myös muuta tosiasiallista hallintotoimintaa, hallintopäätösten valmistelevia toimia ja muuta asian selvittämistä, kuten matkustusasiakirjojen aitouden selvittämistä (liitteen III 7(c) kohta) tai oikeuslaitoksessa tehtävää tosiasioiden selvittämistä (liitteen III 8 (a) kohta). Toisaalta ainakaan verotusmenettely ei vaikuttaisi olevan korkean riskin tekoälyjärjestelmien määritelmän piirissä, ellei verotusmenettely olisi katsottavan kuuluvan liitteen III 5(a) kohdassa tarkoitettuihin julkisiin palveluihin. Tältäkin osin korkean riskin käyttötarkoituksen selkeys ja tarkkarajaisuus olisi tärkeää. Tämä olisi tärkeää myös sen vuoksi, että korkean riskin käyttötarkoituksen määritelmällä tulee todennäköisesti olemaan merkitystä myöhemmin annettavan, vastuukysymyksiä koskevan lainsäädäntöehdotuksen kannalta. 

Vaikutusten arviointia vaikeuttavatkin ehdotuksessa käytetyt määritelmät, kuten edellä mainittu korkean riskin käyttötarkoituksen määritelmä, sekä myös itse tekoälyjärjestelmän määritelmä (artikla 3(1) ja liite I). Sen vuoksi ei voida vielä selkeästi arvioida sitäkään, millä tavalla asetusehdotus koskee sääntöpohjaista hallintoautomaatiota ja erilaisia laskenta-algoritmeja, joita viranomaisissa jo laajalti käytetään esimerkiksi valvontatehtävien ja päätöksenteon tukena. Lisäksi on vielä tarkennettava, miltä osin sääntely tulisi koskemaan viranomaisten käytössä olevia tekoälyä käyttäviä neuvonta- ja tukijärjestelmiä, kuten keskustelurobotteja (chatbotteja), joiden toiminnassa hyödynnetään liitteessä I mainittuja teknologioita, ja jotka voivat toimia jonkin liitteessä III määritellyn käyttötarkoituksen neuvonta- ja tukipalveluna. Yhtenä esimerkkinä tästä on Kansaneläkelaitoksen keskustelurobotti, joka käyttää koneoppimista kirjoitetun kielen ymmärtämiseen (liitteen I (a) kohta), ja joka neuvoo Kelan asiakkaita sosiaalietuuksien hakemisessa (liitteen III 5 (a) kohta). 

Lisäksi asetusehdotuksen 5 artikla asettaisi rajoituksia sille, miten ja missä tilanteissa lainvalvontaviranomaiset voivat käyttää biometristä tunnistamista. 

Asetusehdotus sisältää vaatimuksia tekoälyjärjestelmien läpinäkyvyyden, kehittämisen, testaamisen ja toiminnan osalta. Vaatimukset ovat todennäköisesti osittain päällekkäisiä viranomaisten tietojärjestelmien kehittämisessä ja käytössä jo sovellettavien hyvän hallinnon periaatteiden ja muiden kansallisesta lainsäädännöstä syntyvien vaatimusten kanssa, mikä osaltaan lieventäisi ehdotuksesta syntyviä vaikutuksia viranomaisten toimintaan, koska vaatimusten edellyttämät menettelyt olisivat jo käytössä. Toisaalta uudet vaatimukset voivat luoda viranomaisille tarpeetonta hallinnollista sääntelytaakkaa, sillä kansallinen sääntely ja unionin sääntely voivat perustua erilaisiin lähestymistapoihin, soveltamisaloihin ja määritelmiin, vaikka niiden tavoitteet olisivatkin lopulta samat. Asetusehdotuksen ja kansallisen sääntelyn välinen suhde vaatiikin tarkempaa selvittämistä jatkovalmistelussa. Tähän kokonaisuuteen tulee vaikuttamaan myös edellä mainittu oikeusministeriössä ja valtiovarainministeriössä parhaillaan valmisteltava julkisen hallinnon automaatiota ja tietojärjestelmiä koskeva yleissääntely. 

Asetusehdotus sisältää uusia tehtäviä tai muutoksia tehtävien sisältöön kansallisille viranomaisille. Keskeisin tällainen viranomainen olisi Turvallisuus- ja kemikaalivirasto, joka toimii markkinavalvonta-asetuksen (EU) 2019/1020 ja markkinavalvontalain (1137/2016) mukaisena markkinavalvontaviranomaisena, ja joka asetuksen johdosta toimisi tekoälyä turvallisuuskomponenteissa käyttävien, liitteessä II viitattujen tuotteiden markkinavalvojana. Lisäksi liikennesektorin osalta valvontaviranomaisena toimii Liikenne- ja viestintävirasto. Ehdotetulla seuraamuksia koskevalla sääntelyllä olisi myös vaikutusta kansallisten viranomaisten toimintaan. Tarkat vaikutukset riippuisivat siitä, minkälaisessa muodossa lopullisen säädöksen sisältämä seuraamuksia koskeva sääntely olisi. Jatkossa asetusehdotuksessa tarkoitettujen valvonta- ja seuraamusmenettelyjen hoitaminen saattavat edellyttää viranomaisilta uudenlaista osaamista, mikä tuo mukanaan muun muassa resurssihaasteita. Viranomaisten tehtävistä säädettäisiin kansallisesti kuitenkin tarkemmin lailla. Riippuen lopullisen sääntelyn sisällöstä ja suhteesta EU:n yleiseen tietosuoja-asetukseen, ehdotetuilla käyttäjiä koskevilla velvoitteilla (kuten lokitietojen ylläpitoon liittyvät velvoitteet) voisi olla vaikutusta myös henkilötietojen käsittelyn valvontaan. Valvontaa tehdään jo tietosuoja-asetuksen perusteella, joten merkittäviä vaikutuksia ei välttämättä aiheutuisi. 

Työlainsäädännön, yhdenvertaisen kohtelun sekä sosiaaliturvan osalta on syytä arvioida asetuksen suhdetta muun muassa kansallisiin oikeusturvamekanismeihin. 

Ehdotuksen kansallinen käsittely ja käsittely EU:ssa

Komissio antoi asetusehdotuksen 21.4.2021. Asetusehdotuksesta järjestettiin kuulemistilaisuus 28.4.2021 sidosryhmille ja viranomaisille. 

Luonnos U-kirjelmäksi on käsitelty 7.5.2021 kilpailukykyjaoston (EU 8) kokouksessa, 11.5. työoikeusjaoston (EU 28) kokouksessa sekä oikeus- ja sisäjaoston (EU 7) rahoituspalvelut ja pääomaliikkeet -jaoston (EU 10), viestintäjaoston (EU 19), liikennejaoston (EU22) ja koulutusjaoston (EU30) kirjallisessa menettelyssä 5.–11.5.2021. 

Luonnos U-kirjelmäksi on käsitelty myös 21.5.2021 EU-ministerivaliokunnassa. 

Ehdotuksen käsittely on alkanut neuvoston televiestintä- ja tietoyhteiskuntatyöryhmä -työryhmässä 22.4.2021. EU-puheenjohtajamaa Portugalin tarkoituksena on esitellä asetusehdotus kesäkuun epävirallisessa televiestintäministerikokouksessa.  

Tietoja käsittelystä Euroopan parlamentissa ei ole vielä saatavilla. 

Ehdotuksen suhde perustuslakiin sekä perus- ja ihmisoikeuksiin

Ehdotuksella on vaikutuksia moniin perusoikeuksiin. Komission näkemyksen mukaan tekoälyn käyttöön liittyy erityisiä piirteitä, kuten monimutkaisuus, riippuvuus datasta sekä autonomisuus, jotka voivat vaikuttaa kielteisesti EU:n perusoikeuskirjassa turvattuihin perusoikeuksiin. Ehdotuksen tavoitteena on varmistaa korkeatasoinen perusoikeuksien suojelu ja vastata tekoälyn aiheuttamiin riskeihin riskiperustaisella lähestymistavalla.  

Komission mukaan asetusehdotuksella olisi myönteisiä vaikutuksia erityisten henkilöryhmien oikeuksien, kuten lasten ja vammaisten oikeuksien toteutumiseen. Lisäksi asetuksella olisi vaikutuksia työntekijöiden ja kuluttajien oikeuksiin, joita tulee tarkastella jatkokäsittelyssä. 

Suomessa ehdotusta on arvioitava ainakin seuraavien perustuslain säännösten kannalta: Oikeus elämään sekä henkilökohtaiseen vapauteen ja koskemattomuuteen (7 §), yksityisyyden ja henkilötietojen suoja (10 §), yhdenvertaisuus (6 §), elinkeinonvapaus ja oikeus työhön (18 §), oikeusturva ja hyvä hallinto (21 §), sananvapaus (12 §), rikosoikeudellinen laillisuusperiaate (8 §) sekä hallintotehtävän anto muulle kuin viranomaiselle (124 §). 

7.1  Oikeus elämään sekä henkilökohtaiseen vapauteen ja koskemattomuuteen

Ehdotus edistää perustuslain 7 §:ssä turvattua oikeutta elämään sekä henkilökohtaiseen vapauteen ja koskemattomuuteen. Kyseinen säännös takaa myös jokaiselle oikeuden turvallisuuteen. Tekoälyjärjestelmien luokitteleminen riskikategorioihin edistää järjestelmien käytön turvallisuutta. Ehdotuksessa kielletään asettamasta markkinoille tiettyjä haitallisia tekoälyjärjestelmiä, jotka esimerkiksi vaikuttaisivat henkilön käyttäytymiseen niin, että seurauksena olisi fyysinen tai psykologinen haitta tai jotka hyväksikäyttäisivät erityisten henkilöryhmien haavoittuvuuksia. Lisäksi henkilöä tulisi ehdotetun pääsäännön mukaan informoida siitä, jos hän on tekemisissä tekoälyjärjestelmän kanssa. 

Korkean riskin tekoälyjärjestelmille asetetaan asetuksessa tiettyjä vaatimuksia ja valvontamekanismeja, joiden tarkoituksena on parantaa järjestelmän käytöstä johtuvia haittoja ja ehkäistä henkilöille aiheutuvaa vahinkoa. Järjestelmä voidaan luokitella korkean riskin tekoälyjärjestelmäksi esimerkiksi sillä perusteella, että se aiheuttaa vaaran henkilön terveydelle ja turvallisuudelle tai heikentää perusoikeuksien toteutumista. Kun komissio arvioi tekoälyjärjestelmien lisäämistä korkean riskin kategoriaan delegoitujen säädösten avulla, sen tulee ottaa huomioon muun muassa tekoälyjärjestelmän potentiaaliset vahingolliset vaikutukset terveydelle ja turvallisuudelle sekä kielteiset vaikutukset perusoikeuksien toteutumiselle. 

7.2  Yksityisyyden ja henkilötietojen suoja

Asetusehdotuksen sääntely on merkityksellistä perustuslain 10 §:ssä säädetyn yksityiselämän suojan kannalta. Perustuslain 10 § 1 momentin mukaan jokaisen yksityiselämä, kunnia ja kotirauha on turvattu, ja henkilötietojen suojasta säädetään tarkemmin lailla. 

Asetusehdotuksessa kielletään tai luokitellaan korkean riskin kategoriaan tekoälyjärjestelmät, jotka heikentäisivät yksityisyyden suojaa, kuten biometriseen tunnistukseen tai henkilöiden luokitteluun liittyviä järjestelmiä.  

Asetusehdotuksen suhdetta unionin tietosuojasääntelyyn sekä toimijoiden eri rooleihin tietosuojasääntelyn nojalla tulee kokonaisuudessaan täsmentää jatkovalmistelussa, mukaan lukien käyttäjiä koskevien velvoitteiden suhde yleisen tietosuoja-asetuksen 22 artiklaan. Esimerkiksi korkean riskin tekoälyjärjestelmiä (johdantokappaleet 33-40; artikla 6; liite III) koskevien säännösten tietosuojavaikutuksia tulisi tarkastella muun muassa biometrisen tunnistuksen ja henkilöiden luokittelun, luonnollisten henkilön luottoluokituksen ja työelämän järjestelmien osalta tarkemmin. Lisäksi korkean riskin järjestelmien velvollisuuksia koskevaa 10 artiklaa tulisi myös tarkastella siltä osin, miten 10 artikla suhtautuu EU:n tietosuojasääntelyyn erityisesti vaikutustenarvioinnin osalta. 10(5) artiklan nojalla arkaluonteistenkin tietojen käsittely olisi sallittua siltä osin kuin se on tarpeen tekoälyjärjestelmässä esiintyvien vinoumien korjaamiseksi ja ennaltaehkäisemiseksi, missä on kyse tietosuojan ja tekoälyjärjestelmien aiheuttamien riskien torjumisen välisestä punninnasta. Myös sääntelyhiekkalaatikoita koskevien artiklojen (53-54) suhdetta EU:n tietosuojalainsäädäntöön olisi syytä arvioida jatkovalmistelussa tarkemmin. 

Tiettyjen tekoälyjärjestelmien (52 artikla), jotka ovat vuorovaikutuksessa luonnollisten henkilöiden kanssa, tunnistavat tunteita tai käyttävät biometristä luokitusjärjestelmää tai käyttävät nk. ”deep fake” -teknologiaa, vaikutuksia tulisi vielä arvioida tarkemmin suhteessa tietosuojasääntelyyn ottaen huomioon oikeusperusta tietojen käsittelylle sekä läpinäkyvyyteen ja informointiin liittyvät seikat. 

Tekoälyjärjestelmien toimijoilla olisi velvollisuus antaa tietoa kansallisille viranomaisille tekoälyjärjestelmän vaatimustenmukaisuudesta tai antaa viranomaisille pääsy järjestelmän lokitietoihin 23 artiklan nojalla. Asetusehdotuksen 37 artiklassa säädetään komission oikeudesta saada tietoja kansalliselta viranomaiselta, jos ilmoitetun laitoksen epäillään rikkovan asetuksesta seuraavia velvoitteita. Komission tulee käsitellä tällaista tietoa luottamuksellisesti. Asetusehdotuksen 64 artiklassa säädetään markkina-valvontaviranomaisen oikeudesta päästä tekoälyjärjestelmien tuottajien tietoaineistoihin tai tarvittaessa lähdekoodeihin tehtäviensä hoitamiseksi. Samassa artiklassa säädetään kansallisten viranomaisten tai elinten oikeudesta päästä tekoälyjärjestelmien toimijoiden asiakirjoihin, jotka ovat syntyneet tämän asetuksen johdosta, ja jotka ovat tarpeellisia näiden tehtävien toteuttamiseksi kansallisen toimivallan nojalla. Näitä säännöksiä on arvioitava myös perustuslain 10 §:n 1 momentin nojalla, jos tiedonsaantioikeudet kohdistuvat yksityisyyden suojan piiriin kuuluviin tietoihin. 

Asetusehdotuksen 70 artiklassa säädetään luottamuksellisuudesta koskien kansallisten toimivaltaisten viranomaisten ja ilmoitettujen elinten tehtävien hoidossa saatuja tietoja sekä tiedonvaihdosta komission kanssa. Artiklaa tulisi vielä tarkastella, eikä sääntelyn tulisi johtaa julkisuusperiaatteen kaventumiseen. Ehdotukseen sisältyviä luottamuksellisia tietoja koskevia säännöksiä on myös tarkasteltava perustuslain 12 §:n 2 momentissa turvatun julkisuusperiaatteen kannalta ja arvioitava kansallisen liikkumavaran tarvetta säännöksessä. 

7.3  Yhdenvertaisuus ja sukupuolten tasa-arvo

Perustuslain 6 §:n 1 momentin mukaan ihmiset ovat yhdenvertaisia lain edessä. Kyseessä on yleinen yhdenvertaisuussäännös, johon kuuluvat vaatimus samanlaisesta kohtelusta samanlaisissa tapauksissa ja mielivallan kielto. Yleistä yhdenvertaisuussäännöstä täydentää pykälän 2 momentissa säädetty syrjintäkielto. Säännöksen mukaan kiellettyjä erotteluperusteita ovat sukupuoli, ikä, alkuperä, kieli, uskonto, vakaumus, mielipide, terveydentila ja vammaisuus. Luetteloa ei kuitenkaan ole pidettävä tyhjentävänä vaan kiellettyihin erotteluperusteihin rinnastuvat muut henkilöön liittyvät syyt (HE 309/1993 vp, s. 43–44). Yhdenvertaisuuslain (1325/2014) mukaan ketään ei saa syrjiä iän, alkuperän, kansalaisuuden, kielen, uskonnon, vakaumuksen, mielipiteen, poliittisen toiminnan, ammattiyhdistystoiminnan, perhesuhteiden, terveydentilan, vammaisuuden, seksuaalisen suuntautumisen tai muun henkilöön liittyvän syyn perusteella. Syrjintä on kielletty riippumatta siitä, perustuuko se henkilöä itseään vai jotakuta toista koskevaan tosiseikkaan tai oletukseen. Tasa-arvolain (Laki naisten ja miesten välisestä tasa-arvosta, 609/1986) tarkoituksena on puolestaan estää muun muassa sukupuoleen perustuva syrjintä ja edistää naisten ja miesten välistä tasa-arvoa. 

Asetusehdotuksessa pyritään estämään tekoälyn syrjivyyden vaikutukset asettamalla vaatimuksia tekoälyjärjestelmän kehittämiselle, koulutukselle ja käytölle, esimerkiksi korkealaatuisen datan käytön vaatimusten sekä tekoälyjärjestelmiä koskevien läpinäkyvyysvelvoitteiden avulla. Komission arvion mukaan korkealaatuiset algoritmit ja data ovat keskeisiä edellytyksiä syrjinnän estämiselle. Tekoälyjärjestelmän vaatimustenmukaisuusvalvontaa, testausta ja jälkivalvontaa koskevat velvoitteet auttavat tunnistamaan järjestelmän poikkeavuuksia ja siten myös edistämään syrjinnän ehkäisyä. Asetusehdotuksessa kielletään tietyt käyttötapaukset, joissa viranomaiset käyttävät tekoälyjärjestelmiä henkilöiden luotettavuuden arviointiin sosiaalisen pisteytyksen avulla ja joka mahdollisesti johtaisi tiettyjen henkilöryhmien epäedulliseen kohteluun. 

7.4  Elinkeinonvapaus ja oikeus työhön

Perustuslain 18 §:n 1 momentin mukaan jokaisella on oikeus lain mukaan hankkia toimeentulonsa valitsemallaan työllä, ammatilla tai elinkeinolla. Julkisen vallan on huolehdittava työvoimansuojelusta. Ehdotuksessa asetetaan laajoja ja yksityiskohtaisia vaatimuksia tekoälyjärjestelmille sekä tuottajiin, maahantuojiin, jakelijoihin ja käyttäjiin kohdistuvia velvollisuuksia. Tekoälyjärjestelmille luodaan vaatimustenmukaisuuden valvontaa koskevia mekanismeja ennen tekoälyjärjestelmän asettamista markkinoille tai sen käyttöönottoa.  

Kyseiset vaatimukset merkitsevät puuttumista perustuslaissa turvattuun elinkeinonvapauteen. Elinkeinonvapauteen tehtävien poikkeusten tarkoituksena on parantaa tekoälyjärjestelmien turvallisuutta ja luotettavuutta. Jatkokäsittelyssä tulisi kuitenkin varmistaa, etteivät vaatimukset aseta liikaa markkinoille tulon esteitä tai hallinnollista taakkaa tekoälyjärjestelmien tuottajille.  

Asetusehdotuksessa ilmoitetuille laitoksille, jotka vahvistavat tekoälyjärjestelmän vaatimustenmukaisuuden, asetetaan erityisiä vaatimuksia ja näiden tulee hakea notifiointia kansalliselta viranomaiselta. Komissio ylläpitää julkisesti saatavilla olevaa listaa ilmoitetuista laitoksista ja myöntää näille identifiointinumeron. Perustuslakivaliokunta on lausuntokäytännössään rinnastanut elinkeinotoiminnan aloittamisen edellytykseksi säädettävän rekisteröitymisvelvollisuuden luvanvaraisuuteen (PeVL 58/2010 vp ja PeVL 15/2008 vp, PeVL 24/2000 vp, PeVL 45/2001 vp). Näin ollen velvollisuus notifioinnin hakemiseen rinnastuu mahdollisesti elinkeinotoiminnan luvanvaraisuuteen. Asetusehdotuksessa asetetaan myös pakollinen vaatimus rekisteröidä tekoälyjärjestelmät komission ylläpitämään EU:n yhteiseen tietokantaan. Kyseessä olisi kuitenkin tekoälyjärjestelmää koskeva rekisteröintivelvollisuus eikä toimijan rekisteröintivelvollisuus.  

Ehdotuksen kannalta relevantteja ovat myös 18 artiklan 3 momentti, jossa todetaan, että ketään ei saa ilman lakiin perustuvaa syytä erottaa työstä. 

7.5  Oikeusturva ja hyvä hallinto

Perustuslain 21 § 1 momentin mukaan jokaisella on oikeus saada asiansa käsitellyksi asianmukaisesti ja ilman aiheetonta viivytystä lain mukaan toimivaltaisessa tuomioistuimessa tai muussa viranomaisessa sekä oikeus saada oikeuksiaan ja velvollisuuksiaan koskeva päätös tuomioistuimen tai muun riippumattoman lainkäyttöelimen käsiteltäväksi. Pykälän 2 momentin mukaan käsittelyn julkisuus sekä oikeus tulla kuulluksi, saada perusteltu päätös ja hakea muutosta samoin kuin muut oikeudenmukaisen oikeudenkäynnin ja hyvän hallinnon takeet turvataan lailla. 

Hyvän hallinnon ja oikeusturvan kannalta keskeisiä ovat julkisen sektorin käyttämät tietojärjestelmät, mukaan lukien päätöksenteossa käytettävät järjestelmät. Perustuslakivaliokunta on kiinnittänyt perustuslain 21 §:n ja julkisen vallan käytön lakiperustaisuuden näkökulmasta huomiota siihen, ettei automaattisessa päätöksenteossa massaluonteisessakaan toiminnassa saa vaarantaa hyvän hallinnon vaatimuksia tai asianosaisen oikeusturvaa (PeVL 49/2017 vp, s. 5, PeVL 35/2005 vp, s. 2/I, PeVL 7/2019 vp).  

Oikein käytettynä ja toteutettuna tekoälyjärjestelmien avulla voidaan järjestää hallinnon toimintaa tavalla, joka edistää hallinnossa asioivien ja hallinnon kohteena olevien tasapuolista kohtelua, luottamuksensuojaa, sekä viranomaisen toiminnan tarkoitussidonnaisuutta. Jos hallinnon toimintaa järjestetään asianmukaisesti tekoälyjärjestelmän tai muun tietojärjestelmän avulla, yksittäisten virkamiesten virheet, ennakkoluulot, vinoumat tai väärinkäytökset eivät ole enää yhtä merkityksellisiä. Asetuksessa asetettavat, korkean riskin tekoälyjärjestelmiin kohdistuvat vaatimukset mm. koulutusdatan laadusta, järjestelmän valvomisesta, järjestelmän toiminnan läpinäkyvyydestä sitä käyttävälle viranomaiselle, sekä järjestelmän testaamisesta edistävät tällaista oikeaa käyttö- ja toteuttamistapaa. Tekoälyjärjestelmien käyttö edistää myös viranomaisten tehokasta ja tuloksellista toimintaa, mikä parantaa hallinnon palveluiden saatavuutta. 

Asetusehdotuksen liitteen III mukaan korkean riskin tekoälyjärjestelmiin kuuluvat järjestelmät, joita käytetään tehtäessä päätöksiä julkisiin palveluihin pääsystä ja etuuksien käyttämisestä. Korkean riskin järjestelmien määritelmä kattaa myös monia muita julkisessa hallinnon kannalta merkityksellisiä tekoälyjärjestelmiä, kuten lainvalvonnassa, maahanmuutossa, oikeudenhoidossa ja demokraattisissa prosesseissa käytettävät järjestelmät. Järjestelmiä käytetään muun muassa oikeusviranomaisen avustamisessa lain tulkinnassa ja soveltamisessa. Kyseisiä korkean riskin tekoälyjärjestelmiä koskevat asetuksessa asetetut erityiset vaatimukset, kuten tietoaineistojen laatuvaatimukset, läpinäkyvyys, turvallisuus sekä ihmisen valvonta. Näiden vaatimusten voidaan osaltaan katsoa edistävän hyvän hallinnon periaatteiden toteutumista. Asetusehdotuksessa ei kuitenkaan säännellä jäsenvaltioiden velvollisuudesta varmistaa muutoksenhaku tekoälyn tekemiin päätöksiin julkisen hallinnon toiminnassa, vaan tämä jää muun sääntelyn varaan. 

Asetusehdotuksen mukaan asetusta toimeenpanevat ja sen noudattamista valvovat viranomaiset on organisoitava niin, että ne ovat riippumattomia vaatimuksenmukaisuutta arvioivien tahojen toiminnasta ja niin että niiden puolueettomuus ja objektiivisuus varmistetaan. Lisäksi viranomaiset eivät esimerkiksi saa tarjota kaupallisia palveluita, jotka liittyvät vaatimuksenmukaisuuden arviointiin. Objektiivisuuden ja tasapuolisuuden vaatimukset koskevat myös vaatimuksenmukaisuuden arvioijia. Tämä osaltaan edistää hyvän hallinnon periaatteiden toteutumista. 

7.6  Sananvapaus

Perustuslain 12 §:n 1 momentissa turvataan sananvapaus. Kyseisen säännöksen mukaan sananvapauteen sisältyy oikeus ilmaista, julkistaa ja vastaanottaa tietoja, mielipiteitä ja muita viestejä kenenkään ennakolta estämättä. Sananvapauden osalta merkityksellisiä ovat läpinäkyvyysvelvoitteet nk. ”deep fake” –teknologiaa hyödyntävistä sisällöistä. Asetusehdotuksessa säädetään velvollisuudesta ilmoittaa tekoälyn käytöstä järjestelmissä, jotka tuottavat kuva-, ääni- tai videosisältöä tarkoituksenaan muistuttaa todellista henkilöä tai muuta kohdetta. Koska kyseisen säännöksen tarkoituksena on turvata tekoälyjärjestelmien turvallisuus ja ehkäistä ihmisille aiheutuvaa haittaa, säännöstä voidaan pitää alustavasti ongelmattomana sananvapauden kannalta. Lisäksi säännökseen voitaisiin tehdä poikkeuksia sen perusteella, että nk. ”deep fake” –teknologiaa hyödyntäviä sisältöjä käytettäisiin oikeutettuihin tarkoituksiin (kuten rikostutkintaan) lain nojalla tai muihin tarpeellisiin tarkoituksiin sananvapauden tai taiteen ja tieteen harjoittamisen toteuttamiseksi. Jatkokäsittelyssä on kuitenkin syytä kiinnittää deep fake -teknologian määrittelyssä siihen, miten se suhteutuu perinteisiin keinoihin muokata todellisuutta kuva-, ääni- tai videosisällöissä. 

7.7  Rikosoikeudellinen laillisuusperiaate

Asetusehdotuksen artiklan 71 mukaan jäsenvaltioiden tulee säätää rangaistuksista, mukaan lukien sakoista, jotka koskevat asetuksen rikkomista. Alustavan arvion mukaan rangaistukset kattaisivat kansallisesti hallinnolliset sanktiot. Rangaistusluonteiset hallinnolliset sanktiot eivät ole suoraan rinnastettavissa rikosoikeudellista laillisuusperiaatetta koskevassa perustuslain 8 §:ssä tarkoitettuihin rikosoikeudellisiin seuraamuksiin. Perustuslakivaliokunnan lausuntokäytännön mukaan näitä sanktioita koskevan sääntelyn tulee täyttää yleiset tarkkuuden ja oikeasuhtaisuuden vaatimukset (PeVL 14/2013 vp, s. 2/II, PeVL 34/2012 vp, s. 3–4, PeVL 17/2012 vp, s. 6). Nämä vaatimukset tulisi huomioida asetusehdotuksen jatkokäsittelyssä hallinnollisten sanktioiden osalta. 

Hallinnollisten sanktioiden osalta tulisi pyrkiä varmistamaan riittävä kansallinen liikkumavara erityisesti sen huomioimiseksi, että Suomessa ei tällä hetkellä voida määrätä hallinnollisia seuraamusmaksuja viranomaisille, sillä viranomaisille voidaan määrätä ainoastaan rikosoikeudellisia seuraamuksia. Lisäksi tulisi arvioida ehdotettujen säännösten suhdetta muun muassa yleisen tietosuoja-asetuksen mukaisiin hallinnollisiin seuraamuksiin tai muihin jäsenvaltioiden kansalliseen liikkumavaraan kuuluviin seuraamuksiin. 

7.8  Hallintotehtävän antaminen muulle kuin viranomaiselle

Perustuslain 124 §:n mukaan julkinen hallintotehtävä voidaan antaa muulle kuin viranomaiselle vain lailla tai lain nojalla, jos se on tarpeen tehtävän tarkoituksenmukaiseksi hoitamiseksi eikä vaaranna perusoikeuksia, oikeusturvaa tai muita hyvän hallinnon vaatimuksia. Merkittävää julkisen vallan käyttöä sisältäviä tehtäviä voidaan kuitenkin antaa vain viranomaiselle. Asetusehdotuksessa ilmoitetuille laitoksille annettaisiin viranomaiselle kuuluvia tehtäviä, koska laitokset vahvistaisivat tekoälyjärjestelmien vaatimustenmukaisuuden. Ilmoitetulle laitokselle säädettyjä tuotteen vaatimustenmukaisuuden arviointiin liittyviä tehtäviä ei ole pidetty merkittävänä julkisen vallan käyttönä (vrt. HE 21/2016 vp, s. 37, HE 182/2013 vp, s. 19). Ilmoitetuille laitoksille asetetaan erityisiä vaatimuksia artiklan 33 nojalla, kuten itsenäisyyteen ja puolueettomuuteen liittyviä vaatimuksia, jotka osaltaan turvaavat hyvän hallinnon vaatimusten toteutumista. Kansalliset valvontaviranomaiset valvoisivat ilmoitettujen laitosten toimintaa. Jäsenvaltioiden tulisi varmistaa, että ilmoitettujen laitosten tekemiin päätöksiin voidaan hakea muutosta.  

Artikla 34 mukaan ilmoitetun laitoksen olisi mahdollista siirtää vaatimustenmukaisuuden arviointia koskevia tehtäviä alihankkijalle, jonka tulisi täyttää samat vaatimukset kuin ilmoitettu laitos. Tehtävän siirrosta tulisi ilmoittaa kansalliselle valvontaviranomaiselle. Perustuslakivaliokunnan mukaan yksityiselle siirretyn julkisen hallintotehtävän edelleen siirtämiseen (subdelegointiin) on suhtauduttava lähtökohtaisesti kielteisesti (PeVL 26/2017 vp). Ehdotonta kieltoa tällaiselle siirtämiselle ei kuitenkaan ole ollut osoitettavissa tilanteissa, joissa on kyse teknisluonteisesta tehtävästä ja joissa alihankkijaan kohdistuvat samat laatuvaatimukset ja vastaava valvonta kuin alkuperäiseen palveluntuottajaan (PeVL 6/2013 vp, s. 4). Sääntelyn asianmukaisuutta suhteessa perustuslain 124 §:ssä säädettyyn tulee jatkovalmistelussa vielä arvioida kaikkien siirtämiselle asetettujen oikeudellisten edellytysten valossa. 

Ahvenanmaan toimivalta

Asetusehdotuksella luodaan eräisiin tekoälyjärjestelmiin sekä niiden toimittajiin ja käyttäjiin kohdistuvia vaatimuksia. Tavoitteena on lisätä tekoälyjärjestelmien turvallisuutta ja lisätä sääntelyn oikeusvarmuutta toimijoille. Ahvenanmaan itsehallintolain (1991/1144) 18 §:n 1 momentin 22 kohdan mukaan maakunnalla on lainsäädäntövalta asioissa, jotka koskevat elinkeinotoimintaa ottaen huomioon mitä on säädetty 27 §:n 1 momentin 2, 10, 12, 40 ja 41 kohdassa. Itsehallintolain mukaan valtakunnan lainsäädäntövaltaan kuuluvat 27 §:n 1 momentin 2 kohdan nojalla sanan-, yhdistys- ja kokoontumisvapauden käyttäminen sekä kirje-, lennätin- ja puhelinsalaisuudet, 10 kohdan nojalla kuluttajansuoja, 12 kohdan nojalla ulkomaankauppa ja 40 kohdan nojalla teletoiminta. Itsehallintolain 27 §:n 1 momentin 40 kohdan tulkinnassa on huomattava, ettei internetin kaltaisia tietoverkkoja ole voitu ottaa huomioon itsehallintolakia säädettäessä (ks. PeVL 22/2001 vp). Edelleen valtakunnan lainsäädäntövaltaan kuuluvat saman momentin 41 kohdan nojalla asiat, jotka koskevat muuta kuin tässä pykälässä erityisesti mainittua yksityisoikeudellista kysymystä, jollei kysymys välittömästi liity sellaiseen oikeudenalaan, joka tämän lain mukaan kuuluu maakunnan lainsäädäntövaltaan ja 42 kohdan nojalla muut itsehallintolain perusteiden mukaan valtakunnan lainsäädäntövaltaan kuuluviksi katsottavat asiat. Asetusehdotuksen sääntely liittyy ennen kaikkea edellä kuvatulla tavalla valtakunnan lainsäädäntövaltaan. 

Asetusehdotuksessa jäsenvaltiot velvoitetaan nimeämään yksi tai useampi kansallinen viranomainen valvomaan asetuksen soveltamisen valvontaa. Yksi näistä viranomaisista määritellään päävastuulliseksi valvontaviranomaiseksi. Ahvenanmaan itsehallintolain 18 §:n 1 momentin 1 kohdan mukaan maakunnalla on lainsäädäntövalta asioissa, jotka koskevat maakunnan hallitusta sekä sen alaisia viranomaisia ja laitoksia sekä 4 kohdan mukaan asioissa, jotka koskevat kuntien hallintoa. Ahvenanmaan itsehallintolain 27 §:n 1 momentin 3 kohdan mukaan valtakunnalla on puolestaan lainsäädäntövalta asioissa, jotka koskevat valtion viranomaisten järjestysmuotoa ja toimintaa. Koska EU-oikeus mahdollistaa usean viranomaisen, ei tilanteeseen sovellu Ahvenanmaan itsehallintolain 59 b §, jonka mukaan viranomaisen nimeäminen kuuluu valtakunnalle, jos jäsenvaltio yhteisön oikeuden mukaan voi nimetä vain yhden hallintoviranomaisen sellaisessa tilanteessa, jossa sekä maakunnalla että valtakunnalla olisi toimivaltaa. Kuitenkin kyseisen säännöksen mukaan maakunnan ja valtakunnan viranomaisten tulee neuvotella keskenään, jos niiden toimenpiteet ovat toisistaan riippuvaisia. Tällaisen riippuvuuden voidaan katsoa olevan. Koska asetuksen tavoitteena on yhdenmukaistaa tekoälyjärjestelmiä koskevaa sääntelyä, ovat yhdenmukaiset toimenpiteet maakunnan ja valtakunnan kesken ovat tarpeellisia. 

Valtioneuvoston kanta

Yritysten ja talousalueiden välinen globaali kilpailutilanne vaatii, että EU:sta luodaan tekoälyn kehittämiselle ja soveltamiselle suotuisa toimintaympäristö, joka vahvistaa yritysten kansainvälistä kilpailukykyä ja kannustaa investointeihin. Euroopan teknologinen kilpailukyky perustuu digitaaliselle kehitykselle, innovaatioille, osaamiselle ja toimiville sisämarkkinoille.  

Valtioneuvosto pitää kannatettavana, että asetuksella pyritään luomaan edellytykset luottamuksen ekosysteemille, joka edesauttaa tekoälyn vastuullista kehittämistä, markkinoille saattamista ja käyttöönottoa Euroopassa tarjoten eettisesti kestävän toimintakehyksen. Valtioneuvosto katsoo, että EU:n kilpailukyvyn vahvistamiseksi ja tavoitteiden saavuttamiseksi tarvitaan yhtenäisyyttä ja yhteistä arvopohjaista lähestymistapaa ja panostusta kansallisella sekä EU:n tasolla.  

Valtioneuvosto tukee komission esittämiä tavoitteita sääntelykehykselle, joiden mukaan varmistetaan, että unionin markkinoille saatetut ja unionin markkinoilla käytetyt tekoälyjärjestelmät ovat turvallisia ja kunnioittavat voimassa olevia perusoikeuksia ja unionin arvoja koskevaa lainsäädäntöä. Valtioneuvosto kannattaa komission ihmiskeskeistä ja luottamusta korostavaa lähestymistapaa jossa eurooppalainen tekoäly perustuu vapauden, ihmisarvon ja yksityisyyden suojan arvoihin.  

Valtioneuvosto toteaa, että tekoälyjärjestelmien käyttöön liittyy paljon perusoikeusliitännäisiä kysymyksiä ja huomioi, että oikein käytettynä tekoälyratkaisut voivat myös edistää perusoikeuksien toteutumista. Valtioneuvosto pitää tärkeänä, että jatkovalmistelussa ehdotuksen soveltamisalakysymyksiä arvioidaan huolellisesti perusoikeuksien toteutumisen kannalta. 

Valtioneuvosto katsoo, että teknologian kehitykseen ja käyttöönottoon liittyviä perus- ja ihmisoikeuskysymyksiä, turvallisuusuhkia, taloudellisia ja toimitusketjujen riippuvuuksia sekä taustalla vaikuttavaa geopoliittista kontekstia tulee tarkastella kokonaisvaltaisesti. Jatkokäsittelyssä tulee huomioida myös kyberturvallisuus. Digitaalisten ratkaisujen, tekoälyn ja algoritmipohjaisen päätöksenteon tuen kehittämisessä on tärkeää kiinnittää huomiota yhdenvertaisuuteen, sukupuolten tasa-arvoon ja syrjimättömyyteen.  

Valtioneuvosto huomioi, että selkeä sääntelykehys, oikeudellinen varmuus sekä tasapuolinen kilpailuympäristö auttavat lisäämään kuluttajien, julkisen sektorin ja yritysten luottamusta tekoälyyn ja siten nopeuttaa tekoälyn käyttöönottoa. Valtioneuvosto kannattaa tavoitteita, joiden mukaan varmistetaan sääntelyn oikeusvarmuus investointien ja innovaatioiden helpottamiseksi sekä helpotetaan laillisten, turvallisten ja luotettavien tekoälysovellusten sisämarkkinoiden kehittämistä.  

Valtioneuvosto tukee komission pyrkimyksiä varmistaa nykyisten sisämarkkinasääntöjen tehokas toimeen- ja täytäntöönpano ja lähtökohtaisesti kannattaa markkinavalvonta-asetuksen (EU) 2019/1020 soveltamista myös tekoälyjärjestelmien valvonnassa markkinavalvontamenettelyjen yhdenmukaisuuden varmistamiseksi huomioiden, että jäsenvaltioille jätetään tarpeeksi liikkumavaraa kansallisten toimivaltaisten viranomaisten nimeämisessä ja markkinavalvonnan järjestämisessä käytännössä. 

Valtioneuvosto katsoo, että mahdollisen uuden sääntelyn tulee olla soveltamisalaltaan selkeä ja noudattaa paremman sääntelyn periaatteita ja katsoo, että vaatimusten tulee olla oikeasuhtaisia eikä niiden tulisi muodostaa tarpeetonta hallinnollista tai taloudellista taakkaa. Tekoälyjärjestelmien tuottajille, maahantuojille, jakelijoille ja käyttäjille asetettavien velvoitteiden ja eri toimijoiden roolien ja niihin liittyvien vastuiden tulee olla selkeitä. Lisäksi on arvioitava, kuinka laajaa osaamista ja tietoa lainsäädännön sisällöstä eri toimijoilta voidaan edellyttää. Myös toimijoiden erikokoisuuteen sekä tosiasiallisiin mahdollisuuksiin täyttää asetetut velvoitteet tulee kiinnittää huomiota.  

Valtioneuvosto katsoo, että julkisen sektorin erityisluonne tulee huomioida ja oikeus hyvään hallintoon tulee turvata viranomaisten osalta. Tulee myös huolehtia, ettei julkisen sektorin toimijoille synny tarpeetonta sääntelytaakkaa, koska julkisen sektorin toimintaan kohdistuu jo kansallista sääntelyä muun muassa hyvän hallinnon, läpinäkyvyyden ja tiedonhallinnan osalta. Valtioneuvosto katsoo, että julkisen hallinnon alaan kuuluvia tehtäviä, joissa käytetään korkean riskin tekoälyjärjestelmiä, koskevaa ehdotettua sääntelyä tulee selkeyttää ja tarkentaa. Valtioneuvosto toteaa, että asetusehdotuksen vaikutuksia julkisen hallinnon digitalisaatioon tulee tarkastella. 

Valtioneuvosto huomioi, että asetusehdotuksen suhdetta muuhun unionin sääntelyyn, kuten yleiseen tietosuoja-asetukseen, markkinavalvontaa koskevaan sääntelyyn, yleiseen tuoteturvallisuusdirektiiviin, tuotevastuudirektiiviin sekä olemassa olevaan sektorikohtaiseen lainsäädäntöön esimerkiksi liikennesektorilla, tulee täsmentää neuvotteluissa. Valtioneuvosto katsoo, että eri säädösten ja säädösehdotusten keskinäisriippuvuuden vuoksi sääntelyä tulisi arvioida kokonaisuutena EU-lainsäädännön laadun, selkeyden ja toimivuuden kannalta sekä vahvistaa hallinnon alojen välistä viranomaiskoordinaatiota ja yhteistyötä. Jatkokäsittelyssä tulee myös tarkentaa ehdotusten taloudellisia vaikutuksia muun muassa virastoille aiheutuvien lisätehtävien suhteen.  

Valtioneuvosto tukee tavoitetta lähestyä tekoälyn oikeudellisen kehyksen luomista riskiperustaisesti ja käyttötapauskohtaisesti, jotta varmistetaan ehdotuksen oikeasuhtaisuus kiinnittäen samalla huomiota riskiperustaisen ja käyttötapauskohtaisen lähestymistavan selkeyteen. Valtioneuvosto painottaa lisäksi mahdollisuutta hyödyntää itsesääntelyä. 

Valtioneuvosto toteaa komission esityksen sisältävän kokonaan kiellettävät tekoälyjärjestelmät ja katsoo, että jatkovalmistelussa on syytä varmistaa, että kiellettyjen tekoälyjärjestelmien määrittely on selkeää, tarkkarajaista ja oikeasuhtaista.  

Valtioneuvosto toteaa, että komissio esittää erottelua reaaliaikaisen ja jälkikäteen tapahtuva biometrisen tunnistamisen välillä. Valtioneuvosto voi hyväksyä erottelun mutta samalla tulee huolehtia siitä, että reaaliaikainen biometristen järjestelmien käyttö edellä mainituilla alueilla henkilöiden tunnistamisessa on mahdollista tietyin, tarkkarajaisin ehdoin suhteellisuusperiaate ja perus- ja ihmisoikeudet huomioon ottaen. Huomiota tulee kiinnittää käyttötapausten määrittelyn selkeyteen sekä oikeasuhtaisuuteen. 

Valtioneuvosto kiinnittää huomiota siihen, että korkean riskin käyttötapauksiin kohdennettavan sääntelyn soveltamisalan tulee olla selkeä, oikeasuhtainen ja perusteltu. Valtioneuvosto huomioi, että korkean riskin käyttötarkoituksiin liittyvien avustavien ja valmistelevien tekoälyjärjestelmien kohdalla, jotka toimivat ihmiskäyttäjän harkinnan tukena, tulisi selkeyttää sitä millä tavalla ja millä laajuudella käytettynä tällaiset järjestelmät luetaan korkean riskin järjestelmäksi koskien esimerkiksi arviointia koulutuksessa. Valtioneuvosto pitää lisäksi tärkeänä sitä, että työntekijöiden ja työnhakijoiden oikeudet turvataan myös silloin kun päätöksenteossa hyödynnetään tekoälyä. 

Valtioneuvosto pitää tärkeänä varmistaa oikeasuhtaisuus ja tarkkuus myös tekoälyjärjestelmien tiedonhallinnan ja tiedon laatua koskevien vaatimusten osalta. Valtioneuvosto katsoo, että ehdotuksessa edellytetty tekoälyjärjestelmien ihmisvalvonta kaipaa selkeyttämistä ja täsmentämistä. Valtioneuvosto huomioi asetusehdotuksen läpinäkyvyysvelvoitteen piiriin kuuluvat tekoälyjärjestelmien velvoitteet ja toteaa, että ehdotuksen vaikutuksia tulee arvioida tarkoin. Jatkokäsittelyssä tulee myös varmistaa, että korkean riskin tekoälyjärjestelmien rekisteröinti EU:n tietokantaan on tarkoituksenmukaista ja turvallista. 

Valtioneuvosto katsoo, että velvoitteiden noudattamisesta ei tule syntyä liian korkeaa kynnystä tai liian pitkää hidastetta kehittämiselle ja markkinoille asettamiselle ja pitää tärkeänä, että asetusehdotus mahdollistaa tekoälyä koskevan tieteellisen tutkimustoiminnan sekä yritystoiminnan. Asetusehdotuksen vaikutuksia yritysten tutkimus-, kehittämis- ja innovaatiotoimintaan tulisi täsmentää. 

Valtioneuvosto kiinnittää huomiota myös tekoälyteknologioiden luonteeseen ja siihen, että tekoälyteknologiat ovat joukko kehittyviä ohjelmistoja ja teknologioita, joille ei voida antaa yksiselitteistä määritelmää. Sääntelyn riittävän tarkkarajaisuuden varmistamiseksi tekoälyn määritelmää tulee tarkastella jatkokäsittelyssä ja selventää, sovelletaanko asetusta tietojärjestelmäkokonaisuuden tekoälyosaan vai tekoälyosan myötä koko tietojärjestelmäkokonaisuuteen. Uuden teknologian kehittyessä on varmistettava lainsäädännön ajantasaisuus ja teknologianeutraalius.  

Valtioneuvosto katsoo, että hallinnollisia sanktioita koskevaa ehdotusta on arvioitava siinä valossa, että sääntelyn tulee täyttää yleiset tarkkuuden ja oikeasuhtaisuuden vaatimukset. Ehdotetun seuraamusjärjestelmän suhdetta muuhun lainsäädäntöön, mukaan lukien erityisesti EU:n yleiseen tietosuoja-asetukseen perustuvaan seuraamuksia koskevaan sääntelyyn, olisi arvioitava neuvottelujen aikana tarkemmin. Kansallisten viranomaisten osalta on syytä varmistaa riittävän sääntelyliikkumavaran säilyminen.  

Valtioneuvosto katsoo, että komissiolle delegoitavien toimivaltuuksien tulee olla selkeitä, tarkkarajaisia, oikeasuhtaisia, tarkoituksenmukaisia ja hyvin perusteltuja. Jatkokäsittelyssä komissiolle delegoitavan säädösvallan ja täytäntöönpanovallan laajuutta ja tarkoituksenmukaisuutta tulee tarkastella huomioiden myös sääntelyn ennakoitavuus eri toimijoille sekä vaikutukset toimintaympäristöön.  

Valtioneuvosto painottaa mahdollisuutta hyödyntää parhaiden käytänteiden jakamista. Lisäksi valtioneuvosto tukee komission näkemystä siitä, että erityisesti pk-yrityksiä tulee tukea digitaalisessa siirtymässä. Valtioneuvosto tukee asetusehdotuksen tavoitetta tukea pk-yrityksiä sääntelyn hiekkalaatikoiden sekä testaus- ja kokeiluympäristöjen perustamisen myötä, mutta pitää tärkeänä, että sääntelyn soveltamisalasta ja toimijoiden velvoitteista sekä niistä tehtävien poikkeusten edellytyksistä säädetään tarkkarajaisesti perussäädöksessä ja sääntelyssä turvataan toimijoiden yhdenvertaisuus.  

Valtioneuvosto toteaa, että asetusehdotuksen mainintaa sotilaallisiin tarkoituksiin kehitettyjen ja käytettyjen tekoälyjärjestelmien rajautumisesta soveltamisalan ulkopuolelle tulisi jatkovalmisteluissa täsmentää huomioimaan vastaavalla tavalla erikseen sisältyvin osin myös kansallisen turvallisuuden ylläpitämiseen sisältyvät tarkoitukset. Valtioneuvosto suhtautuu varauksella luottamuksellisia tietoja koskevaan säännösehdotukseen koskien artiklaa 70 huomioiden, että sääntelyn ei tulisi johtaa julkisuusperiaatteen kaventumiseen. 

10  Muut käsittelyyn vaikuttavat tekijät

E 118/2018 vp Valtioneuvoston selvitys: Komission tiedonanto: Tekoälyn koordinoitu toimintasuunnitelma 

E 24/2020 vp Valtioneuvoston selvitys: Komission tiedonanto Euroopan digitaalisesta tulevaisuudesta, komission tiedonanto Euroopan datastrategiasta ja komission valkoinen kirja tekoälystä 

E 48/2021 vp Komission tiedonanto: 2030 digitaalinen kompassi: eurooppalainen lähestymistapa digitaalista vuosikymmentä varten 

11  Laatijoiden yhteystiedot

Satu Vasamo-Koskinen, johtava asiantuntija, työ- ja elinkeinoministeriö, p. 029 504 7073 

Maria Kekäläinen, neuvotteleva virkamies, valtiovarainministeriö, p. 029 553 0140