3
Ehdotuksen pääasiallinen sisältö
Tekoäly on nopeasti kehittyvä teknologiaperhe, joka voi myötävaikuttaa monenlaisiin taloudellisiin ja yhteiskunnallisiin etuihin kaikilla toimialoilla ja sosiaalisessa toiminnassa. Parantamalla ennakointia, optimoimalla toimintaa ja resurssien kohdentamista sekä yksilöimällä palvelujen toimittamista tekoälyn käyttö voi tarjota yrityksille keskeisiä kilpailuetuja ja tukea sosiaalisesti ja ekologisesti kestäviä tuloksia.
Asetusehdotuksessa tekoälyn oikeudellisen kehyksen luomista lähestytään riskiperustaisesti ja käyttötapauskohtaisesti. Riskiperusteisella ja käyttötapauskohtaisella lähestymistavalla tarkoitetaan, että tekoälyjärjestelmät luokitellaan käyttötarkoituksen pohjalta. Ehdotettu luokittelu on: (i) kielletyt käyttötarkoitukset, (ii) korkean riskin käyttötarkoitukset, (iii) matalan riskin käyttötarkoitukset ja (iv) minimaalisen tai olemattoman riskin käyttötarkoitukset. Saman tekoälyteknologian käyttö voisi täten olla sallittua tai kiellettyä EU:n alueella riippuen käyttötarkoituksesta. Sääntely määräytyisi sen perusteella, missä määrin tekoälyjärjestelmän käyttö voisi aiheuttaa merkittävän haitallisen vaikutuksen ihmisten terveyteen, turvallisuuteen tai perusoikeuksien toteutumiseen.
3.1
Asetusehdotuksen kohde ja soveltamisala
Asetusehdotuksessa ehdotetaan yhdenmukaisia sääntöjä korkean riskin tekoälyjärjestelmien markkinoille saattamisessa, käyttöönotossa ja käytöstä unionissa sekä esitetään yhdenmukaisia läpinäkyvyyssääntöjä tekoälyjärjestelmille, jotka on tarkoitettu vuorovaikutukseen luonnollisten henkilöiden kanssa. Lisäksi ehdotetaan sääntöjä koskien markkinoiden seurantaa ja valvontaa.
Asetusta sovellettaisiin tarjoajiin, jotka saattavat markkinoille tai ottavat käyttöön tekoälyjärjestelmiä unionissa riippumatta siitä, ovatko nämä tarjoajat sijoittautuneet unioniin vai kolmanteen maahan, unionissa sijaitsevien tekoälyjärjestelmien käyttäjiin tietyin ehdoin sekä kolmannessa maassa sijaitsevien tekoälyjärjestelmien tarjoajiin ja käyttäjiin ja kun järjestelmän tuotosta käytetään unionissa.
Asetusta ei sovellettaisi tekoälyjärjestelmiin, jotka on kehitetty tai joita käytetään yksinomaan sotilastarkoituksiin.
3.2
Määritelmät
Tekoälyjärjestelmällä tarkoitetaan ohjelmistoa, joka on kehitetty yhdellä tai useammalla liitteessä I luetellulla tekniikalla ja lähestymistavalla ja joka voi tuottaa tiettyjä ihmisen määrittelemiä tavoitteita varten tuotoksia, kuten sisältöä, ennusteita, suosituksia tai päätöksiä. Tekoälyjärjestelmän määrittely oikeudellisessa kehyksessä pyrkii olemaan mahdollisimman teknologianeutraali ja kestävä, ottaen huomioon nopean teknologisen kehityksen sekä markkinoiden kehityksen.
Tuotteen tai järjestelmän turvakomponentilla tarkoitetaan tuotteen tai järjestelmän komponenttia, joka suorittaa kyseisen tuotteen tai järjestelmän turvatoiminnon ja jonka vika tai toimintahäiriö vaarantaa ihmisten terveyden ja turvallisuuden tai omaisuuden.
Biometrisillä tiedoilla tarkoitetaan henkilötietoja, jotka ovat peräisin luonnollisen henkilön fyysisiin, fysiologisiin tai käyttäytymisominaisuuksiin liittyvästä erityisestä teknisestä käsittelystä, joka sallii tai vahvistaa kyseisen luonnollisen henkilön yksilöllisen tunnistamisen.
3.3
Suhde muuhun unionin lainsäädäntöön
Asetusehdotuksella on paljon liittymäkohtia voimassa olevaan unionin lainsäädäntöön horisontaalisen luonteensa vuoksi. Ehdotus täydentää yleistä tietosuoja-asetusta (EU) 2016/679 ja direktiiviä poliisitoiminnan tietosuojasta (EU) 2016/680, eikä rajoita niiden soveltamista. Lisäksi ehdotus täydentää unionin lainsäädäntöä syrjinnän kiellosta asettamalla tekoälyjärjestelmille algoritmista syrjintää vähentäviä vaatimuksia. Asetusehdotus ei myöskään rajoita unionin kilpailulainsäädännön soveltamista. Asetusehdotuksessa esitetään, että asetuksessa tarkoitetut markkinavalvontaviranomaiset soveltaisivat markkinavalvonta-asetusta (EU) 2019/1020 tekoälyjärjestelmien valvontaan. Markkinavalvonta-asetuksen viittaukset tuotteisiin tulisi tulkita siten, että ne kattaisivat myös asetusehdotuksen soveltamisalaan kuuluvat tekoälyjärjestelmät.
Siltä osin kuin tekoälyjärjestelmät ovat tuotteiden turvallisuuskomponentteja, asetusehdotus sovitetaan yhteen voimassa olevan sektorikohtaisen turvallisuuslainsäädännön kanssa, jotta varmistetaan sääntelyn yhdenmukaisuus ja minimoidaan ylimääräinen hallinnollinen taakka. Jos korkean riskin tekoälyjärjestelmä kuuluu ns. uuden lainsäädäntökehyksen (New Legislative Framework, NLF) alaisiin tuotteisiin, asetusehdotuksen uudet vaatimukset tekoälyjärjestelmille tarkistetaan osana voimassa olevan NLF-kehyksen vaatimustenmukaisuusarviointeja. Asetus ei soveltuisi suoraan ns. vanhan lainsäädäntökehyksen alaisiin tuotteisiin, kuten lentokoneisiin tai autoihin. Kuitenkin tekoälyjärjestelmille asetettavat vaatimukset tulisi huomioida, kun vanhaa lainsäädäntökehystä koskevia delegoituja tai täytäntöönpanosäädöksiä annetaan.
Komissio antoi tekoälyä koskevan asetusehdotuksen yhteydessä ehdotuksen koneasetukseksi (KOM(2021) 202 lopullinen). Tekoälyasetuksella puututaan tekoälyjärjestelmien turvallisuusriskeihin, kun taas koneasetuksella varmistetaan tekoälyjärjestelmien turvallinen integrointi koneisiin. Komissio tarkastelee uudelleen sektorikohtaista tuoteturvallisuuslainsäädäntöä (ns. konedirektiivi, yleinen tuoteturvallisuusdirektiivi) sekä antaa ehdotuksia, jotta sääntely vastaisi paremmin uusia teknologioita, kuten tekoälyä, koskeviin vastuukysymyksiin. Komission odotetaan antavan vastuukysymyksiä koskeva lainsäädäntöehdotus loppuvuodesta 2021 tai alkuvuodesta 2022.
Asetusehdotuksessa on huomioitu yhdenmukaisuus suunniteltujen tai valmistelussa olevien lainsäädäntöehdotusten kanssa. Nyt annettu ehdotus olisi yhdenmukainen sähkökauppadirektiivin 2000/31/EC kanssa ja komission digitaalisista palveluista antaman säädösehdotuksen (KOM(2020) 825 lopullinen) kanssa. Säädösehdotuksen tarkoituksena on uudistaa sähkökauppadirektiiviä.
Asetuksen alaan sisältyvistä työsuhteen solmimisesta, työntekoa ja työsuhteen päättämisestä sekä työvälityksestä on myös EU-tason lainsäädäntöä, kuten määräaikaista- ja osa-aikatyötä koskevat direktiivit sekä joukkovähentämistä ja työntekijöiden kuulemista ja tiedottamista koskevat direktiivit. Myös työelämän yhdenvertaisuutta säännellään EU-tasolla. Työnvälitystä koskevat EURES-työnvälitystä koskeva asetus ja vuokratyödirektiivi. Työntekijöiden suojelua koskevia määräyksiä sisältyy myös EU:n perusoikeuskirjaan.
3.4
Kielletyt tekoälyn käytännöt
Asetuksella kiellettäisiin seuraavat tekoälykäytänteet:
– tekoälyjärjestelmän saattaminen markkinoille, käyttöönotto tai käyttö, joissa käytetään algoritmisia tekniikoita henkilön alitajuiseen manipulointiin tavalla, jotka voivat aiheuttaa henkilölle materiaalista, fyysistä tai psyykkistä haittaa.
– tekoälyjärjestelmän saattaminen markkinoille, käyttöönotto tai käyttö, jossa hyödynnetään henkilön haavoittuvuutta iän tai fyysisen tai henkisen vamman vuoksi aiheuttaen tai todennäköisesti aiheuttaen henkilölle tai toiselle henkilölle fyysistä tai psykologista vahinkoa
– tekoälyjärjestelmien saattaminen markkinoille, käyttöönotto tai käyttö viranomaisten toimesta tai niiden puolesta, joilla pyritään luonnollisten henkilöiden sosiaaliseen pisteytykseen johtaen haitalliseen, epäedulliseen, perusteettomaan tai suhteettomaan kohteluun
– reaaliaikaisten biometristen etätunnistusjärjestelmien käyttö lainvalvontatarkoituksiin julkisesti käytettävissä olevissa tiloissa, lukuun ottamatta tietyissä tilanteissa rikoksen uhrien (esimerkiksi kadonneiden lasten), kohdennettu etsiminen, luonnollisten henkilöiden elämään tai fyysiseen turvallisuuteen kohdistuvan erityisen, merkittävän ja välittömän uhan tai terrori-iskun estäminen tai rikoksentekijän tai epäillyn rikoksentekijän paikantamiseksi
3.5
Korkean riskin tekoälyjärjestelmät
Asetusehdotuksen mukaisesti korkean riskin tekoälyjärjestelmät tulisi saattaa unionin markkinoille tai otettava käyttöön vain, jos ne täyttävät tietyt pakolliset vaatimukset. Näillä vaatimuksilla pyrittäisiin varmistamaan, että unionissa käytettävissä olevat korkean riskin tekoälyjärjestelmät tai näiden tuotokset eivät aiheuta kohtuuttomia riskejä unionin tärkeille julkisille eduille, jotka tunnustetaan ja suojataan unionin lainsäädännössä.
Korkean riskin tekoälyjärjestelmät olisi rajoitettava niihin, joilla on merkittävä haitallinen vaikutus ihmisten terveyteen, turvallisuuteen ja perusoikeuksiin unionissa.
Tekoälyjärjestelmää pidetään korkeariskisenä, jos se on tarkoitettu käytettäväksi tuotteen turvakomponenttina tai se on tuote, johon sovelletaan unionin yhdenmukaistamislainsäädäntöä liitteen II mukaisesti tai jos tekoälyturvakomponentille tai tekoälytuotteelle on muutoinkin suoritettava kolmannen osapuolen vaatimustenmukaisuuden arviointi.
Lisäksi asetusehdotuksen liitteessä III on lueteltu korkean riskin kategoriaan kuuluvia tekoälyjärjestelmiä. Näihin luetaan tekoälyjärjestelmien käyttö tietyin ehdoin muun muassa luonnollisten henkilöiden biometrisessä tunnistamisessa ja luokittelussa, kriittisen infrastruktuurin hallinnassa ja käytössä, valinnassa koulutukseen tai ammatilliseen koulutukseen, rekrytoinnissa tai työsuhteeseen liittyvässä päätöksenteossa, keskeisten palvelujen ja etujen saatavuuden määrittelyssä, luonnollisen henkilön luottokelpoisuuden arvioinnissa, ensiapupalvelujen lähettämisessä, lainvalvontaviranomaisten luonnollisten henkilöiden riskinarvioinneissa, muuttoliike-, turvapaikka- ja rajavalvontahallinnossa sekä oikeuslaitoksissa.
3.6
Vaatimukset korkean riskin tekoälyjärjestelmille
Asetusehdotus edellyttää riskienhallintajärjestelmän perustamista ja ylläpitoa koko tekoälyjärjestelmän elinkaaren aikana huomioiden myös järjestelmän säännöllinen päivitys. Riskinhallintatoimenpiteisiin kuuluu muun muassa riskien vähentäminen mahdollisuuksien mukaan asianmukaisella suunnittelulla ja kehittämisellä ja tarvittavat toimenpiteet sellaisten riskien suhteen, joita ei voida poistaa. Tekoälyjärjestelmiä tulee myös testata riskien vähentämiseksi.
Korkean riskin tekoälyjärjestelmien osalta, joissa hyödynnetään tekniikoita, joihin sisältyy tietomallien kouluttamista, on sovellettava asianmukaisia tiedonhallintakäytäntöjä. Nämä käytännöt sisältävät muun muassa asianmukaisen suunnittelun, tiedonkeruun, asianmukaiset tietojen valmistelutoimet, kuten merkinnät, puhdistuksen, rikastamisen ja yhdistämisen, sekä ennakkoarvion tarvittavien tietokokonaisuuksien saatavuudesta, määrästä ja soveltuvuudesta,
Koulutus-, validointi- ja testaustietoaineistojen on oltava asianmukaisia, edustavia, virheettömiä ja täydellisiä ja niillä on oltava asianmukaiset tilastolliset ominaisuudet. Lisäksi tulee huomioida tekoälyjärjestelmän ominaispiirteet tai elementit, jotka ovat ominaisia erityiselle maantieteelliselle, käyttäytymis- tai toiminnalliselle ympäristölle, jossa korkean riskin tekoälyjärjestelmän on tarkoitus toimia.
Tekniset asiakirjat on laadittava siten, että voidaan osoittaa, että korkean riskin tekoälyjärjestelmä on vaatimusten mukainen. Asiakirjat on toimitettava kansallisille toimivaltaisille viranomaisille ja ilmoitetuille laitoksille. Tarkemmat tiedot on eritelty asetusehdotuksen liitteessä IV.
Korkean riskin tekoälyjärjestelmät on suunniteltava niin, että ne mahdollistavat tapahtumien automaattisen tallennuksen (”lokit”) korkean riskin tekoälyjärjestelmän toiminnan aikana. Näiden kirjausominaisuuksien on oltava hyväksyttyjen standardien tai yhteisten eritelmien mukaisia. Kirjausominaisuuksien on varmistettava tekoälyjärjestelmän toiminnan jäljitettävyys koko sen elinkaaren ajan huomioiden järjestelmän käyttötarkoitus
Korkean riskin tekoälyjärjestelmät on suunniteltava ja kehitettävä siten, että niiden toiminta on riittävän läpinäkyvää, ja jotta käyttäjät voivat tulkita järjestelmän tuotosta ja käyttää sitä asianmukaisesti. Läpinäkyvyysasteessa on otettava huomioon korkean riskin tekoälyjärjestelmien käyttötarkoitus. Tekoälyjärjestelmän mukana on toimitettava kattavat ja selkeät käyttöohjeet, joissa tulee mainita muun muassa tekoälyjärjestelmän keskeisimmät ominaisuudet.
Korkean riskin tekoälyjärjestelmät on suunniteltava ja kehitettävä siten, että luonnolliset henkilöt voivat valvoa niitä. Ihmisen suorittamalla valvonnalla on pyrittävä ehkäisemään tai minimoimaan korkean riskin tekoälyjärjestelmän mahdolliset riskit terveydelle, turvallisuudelle tai perusoikeuksille. Henkilöllä on oltava valvonnan suorittamiseen tarvittava pätevyys ja hänen on pystyttävä keskeyttämään turvallisesti ja välittömästi korkean riskin tekoälyjärjestelmän käyttö. Henkilöllä tulee olla mahdollisuus jättää huomiotta, korjata, ohittaa tai peruuttaa korkean riskin tekoälyjärjestelmän tuotos.
Lisäksi korkean riskin tekoälyjärjestelmät on suunniteltava ja kehitettävä siten, että niiden käyttötarkoitus huomioon ottaen saavutetaan asianmukainen tarkkuustaso kestävyyden, tarkkuuden ja kyberturvallisuuden suhteen. Tekoälyjärjestelmien on toimittava näiden suhteen yhdenmukaisesti koko elinkaarensa ajan.
3.7
Korkean riskin tekoälyjärjestelmien tarjoajien ja käyttäjien ja muiden osapuolten velvollisuudet
Asetusehdotuksen mukaisesti korkean riskin tekoälyjärjestelmien tarjoajien on huolehdittava, että tekoälyjärjestelmät ovat vaatimusten mukaisia, käytössä on laadunhallintajärjestelmä, laadittava korkean riskin tekoälyjärjestelmän tekninen dokumentaatio, huolehdittava testausmenettelyistä sekä asianmukaisesta vaatimustenmukaisuuden arviointimenettelystä ennen tekoälyjärjestelmän markkinoille saattamista tai käyttöönottoa. Tarjoajien on noudatettava rekisteröintivelvoitteita sekä toteutettava tarvittavat korjaavat toimet, jos korkean riskin tekoälyjärjestelmä ei ole asetettujen vaatimusten mukainen. Lisäksi on huolehdittava ilmoituksista viranomaisille vaatimustenvastaisuudesta ja toteutetuista korjaavista toimista, kiinnitettävä CE-merkintä korkean riskin tekoälyjärjestelmiin sekä kansallisen toimivaltaisen viranomaisen pyynnöstä osoitettava, että korkean riskin tekoälyjärjestelmä on asetettujen vaatimusten mukainen.
Asetusehdotuksen mukaisesti unionin ulkopuolelle sijoittautuneet palveluntarjoajat nimeävät kirjallisella toimeksiannolla unioniin sijoittautuneen valtuutetun edustajan ennen tekoälyjärjestelmän markkinoille asettamista.
Ennen korkean riskin tekoälyjärjestelmän saattamista markkinoille maahantuojien on varmistettava, että kyseisen tekoälyjärjestelmän tarjoaja huolehtinut velvoitteistaan ja varmistettava, että varastointi- tai kuljetusolosuhteet eivät vaaranna sen soveltuvuutta esitettyihin vaatimuksiin nähden sekä toimitettava kansallisille toimivaltaisille viranomaisille perustellusta pyynnöstä kaikki tarvittavat tiedot ja asiakirjat, jotta voidaan osoittaa vaatimustenmukaisuus.
Ennen korkean riskin tekoälyn saattamista markkinoille jakelijoiden on varmistettava, että korkean riskin tekoälyjärjestelmässä on vaadittu CE-merkintä, että siihen on liitetty vaaditut asiakirjat ja käyttöohjeet ja että toimittaja ja maahantuoja soveltuvin osin ovat täyttäneet tässä asetusehdotuksessa asetetut velvoitteet. Lisäksi jakelijan on varmistettava, että varastointi- tai kuljetusolosuhteet eivät vaaranna sen soveltuvuutta esitettyihin vaatimuksiin nähden sekä toimitettava kansallisille toimivaltaisille viranomaisille perustellusta pyynnöstä kaikki tarvittavat tiedot ja asiakirjat, jotta voidaan osoittaa vaatimustenmukaisuus.
Rajoittamatta tarjoajien velvollisuuksia ja vastuuta, kolmansien osapuolten on varmistettava, että ne tekevät yhteistyötä ja eivät estä palveluntarjoajia, maahantuojia, jakelijoita tai käyttäjiä täyttämästä tämän asetuksen mukaisia velvoitteitaan. Kaikkia jakelijoita, maahantuojia, käyttäjiä tai muita kolmansia osapuolia pidetään palveluntarjoajina, jos ne saattavat markkinoille tai ottavat käyttöön korkean riskin tekoälyjärjestelmän omalla nimellään tai tavaramerkillään, muuttavat jo markkinoille saatetun tai käyttöön otetun korkean riskin tekoälyjärjestelmän tarkoitusta tai tekevät huomattavan muutoksen korkean riskin tekoälyjärjestelmään.
Korkean riskin tekoälyjärjestelmien käyttäjien on käytettävä järjestelmiä mukana olevien käyttöohjeiden mukaisesti ja seurattava korkean riskin tekoälyjärjestelmän toimintaa käyttöohjeiden perusteella. Jos on syytä katsoa, että käyttöohjeiden mukainen käyttö saattaa muodostaa riskin, heidän on ilmoitettava asiasta tarjoajalle tai jakelijalle ja keskeytettävä järjestelmän käyttö. Niiden on myös ilmoitettava tarjoajalle tai jakelijalle, jos he ovat havainneet vakavan vaaratilanteen tai toimintahäiriön ja keskeyttäneet tekoälyjärjestelmän käytön. Käyttäjien on lisäksi säilytettävä kyseisen korkean riskin tekoälyjärjestelmän luomat lokit tietyin ehdoin. Tässä yhteydessä edellä mainitut seikat pätisivät, kun tekoälyjärjestelmän käyttäjän olisi luonnollinen henkilö tai oikeushenkilö, viranomainen, virasto tai muu elin, jonka alaisuudessa tekoälyjärjestelmää käytetään pois lukien henkilökohtainen, ei-ammattimaisen käyttö.
3.8
Ilmoitetut viranomaiset ja ilmoitetut laitokset
Asetusehdotuksen mukaisesti kunkin jäsenvaltion on nimettävä tai perustettava ilmoitusviranomainen, joka vastaa vaatimustenmukaisuuden arviointilaitosten arvioinnista, nimeämisestä ja ilmoittamisesta sekä niiden seurantaa varten tarvittavien menettelyjen perustamisesta ja toteuttamisesta. Ilmoitusviranomaiset on perustettava ja organisoitava siten, että vaatimustenmukaisuuden arviointilaitosten kanssa ei esiinny eturistiriitoja ja että niiden toiminnan objektiivisuus ja puolueettomuus turvataan.
Ilmoitettujen laitosten on todennettava korkean riskin tekoälyjärjestelmän vaatimustenmukaisuus arviointimenettelyjen mukaisesti vastaten myös alihankinnoistaan. Komissio varmistaa koordinoinnin ja yhteistyön vaatimustenmukaisuuden arviointimenettelyissä jäsenmaiden nimetyistä edustajista koostuvan alakohtaisen yhteistyöryhmän myötä.
3.9
Standardit, vaatimustenmukaisuuden arviointi, sertifikaatit, rekisteröinti ja läpinäkyvyysvelvoitteet
Korkean riskin tekoälyjärjestelmien, jotka ovat yhdenmukaistettujen standardien tai niiden osien mukaisia oletetaan olevan tämän asetusehdotuksen vahvistettujen vaatimusten mukaisia siinä määrin kuin nämä standardit kattavat vaatimukset. Jos yhdenmukaistettuja standardeja ei ole tai jos komissio katsoo, että asiaankuuluvat yhdenmukaistetut standardit eivät ole riittäviä tai että on tarpeen puuttua erityisiin turvallisuus- tai perusoikeusongelmiin, komissio voi täytäntöönpanosäädöksillä hyväksyä yhteiset vaatimukset, joiden valmistelun osana komissio kerää alakohtaisen yhteistyöryhmän tai asiantuntijaryhmien näkemyksiä.
Korkean riskin tekoälyjärjestelmät, jotka on sertifioitu tai joille on annettu vaatimustenmukaisuusvakuutus kyberturvallisuusjärjestelmän mukaisesti, katsotaan olevan tämän asetusehdotuksen kyberturvallisuusvaatimusten mukainen, sikäli kuin kyberturvallisuustodistus tai vaatimustenmukaisuusvakuutus tai sen osat kattavat nämä vaatimukset.
Vaatimustenmukaisuuden arvioinnin osalta palveluntarjoajan on noudatettava joko seuraavista menettelyistä liitteessä VI tarkoitettua sisäiseen valvontaan perustuvaa vaatimustenmukaisuuden arviointimenettelyä tai liitteessä VII tarkoitettua vaatimustenmukaisuuden arviointimenettelyä, joka perustuu laatujärjestelmän arviointiin ja teknisten asiakirjojen arviointiin ilmoitetun laitoksen toimesta.
Korkean riskin tekoälyjärjestelmissä on tehtävä uusi vaatimustenmukaisuuden arviointimenettely aina, kun järjestelmää muutetaan olennaisesti. Jos kyseessä on korkean riskin tekoälyjärjestelmä, joka jatkaa oppimista markkinoille saattamisen tai käyttöönoton jälkeen, palveluntarjoajan ennalta määrittelemät muutokset eivät saa olla merkittäviä muutoksia.
Ilmoitettujen laitosten antamat sertifikaatit ovat voimassa niiden ilmoittaman ajanjakson, joka saa olla enintään viisi vuotta. Palveluntarjoajan hakemuksesta todistuksen voimassaoloa voidaan pidentää uudelleenarvioinnin perusteella. Markkinavalvontaviranomaiset voivat sallia erityisten korkean riskin tekoälyjärjestelmien markkinoille saattamisen tai käyttöönoton rajoitetuksi ajaksi asianomaisen jäsenvaltion alueella poikkeuksellisista syistä yleisen turvallisuuden tai ihmisten elämän ja terveyden suojelemiseksi, ympäristönsuojelun ja tärkeimpien teollisuus- ja infrastruktuurivarojen suojaamiseksi.
Palveluntarjoajan on laadittava kirjallinen EU-vaatimustenmukaisuusvakuus kullekin tekoälyjärjestelmälle ja pidettävä se kansallisten toimivaltaisten viranomaisten saatavilla kymmenen vuoden ajan tekoälyjärjestelmän saattamisesta markkinoille tai käyttöönotosta. CE-merkintä on kiinnitettävä näkyvästi, luettavasti ja pysyvästi korkean riskin tekoälyjärjestelmille.
Tiettyjen tekoälyjärjestelmien läpinäkyvyysvelvoitteet koskevat järjestelmiä, jotka ovat vuorovaikutuksessa ihmisten kanssa, joita käytetään havaitsemaan tunteita tai määrittämään yhteys (sosiaalisiin) luokkiin biometristen tietojen perusteella tai joita käytetään tuottamaan tai manipuloimaan sisältöä (”deep fake”). Kun henkilöt ovat tekemisissä tekoälyjärjestelmän kanssa tai henkilön tunteet tai ominaisuudet tunnistetaan automatisoidusti, henkilöille on kerrottava tilanteesta. Jos tekoälyjärjestelmää käytetään sellaisen kuvan, ääni- tai videosisällön tuottamiseen tai käsittelyyn, joka muistuttaa huomattavasti aitoa sisältöä, olisi oltava velvollisuus ilmoittaa, että sisältö on luotu automaattisin keinoin, jollei poikkeukset perustu laillisiin tarkoituksiin kuten lainvalvonta tai sananvapauden toteuttaminen.
3.10
Toimenpiteet innovaatioiden edistämiseksi ja pienten toimijoiden huomioiminen
Asetusehdotuksessa kannustetaan kansallisia toimivaltaisia viranomaisia perustamaan sääntelyhiekkalaatikoita ja asettamaan hallinnon, valvonnan ja vastuun kehyksen. Tekoälyä säätelevät hiekkalaatikot luovat valvotun ympäristön innovatiivisten tekniikoiden testaamiseksi rajoitetun ajan toimivaltaisten viranomaisten kanssa sovitun testaussuunnitelman perusteella. Asetuksessa säädetään henkilötietojen käsittelystä sääntelyhiekkalaatikoiden yhteydessä. Tekoälyä sääntelevän hiekkalaatikon osallistujat ovat asetusehdotuksen mukaisesti vastuussa vahingoista, joita kolmannelle osapuolelle on aiheutunut hiekkalaatikossa tapahtuvan kokeilun seurauksena.
Jäsenvaltioiden toimivaltaisten viranomaisten, jotka ovat perustaneet tekoälyn sääntelyhiekkalaatikot, on koordinoitava toimintaansa ja tehtävä yhteistyötä Euroopan tekoälylautakunnan puitteissa. Jäsenvaltioiden on lisäksi tarjottava pienille toimittajille ja aloitteleville yrityksille ensisijainen pääsy tekoälyn sääntelyhiekkalaatikkoihin sekä järjestää tämän asetuksen soveltamista koskevia erityisiä tiedotustoimia, jotka on räätälöity pienten palveluntarjoajien ja käyttäjien tarpeisiin.
Lisäksi Euroopan tekoälylautakunnan tuella, Euroopan digitaalisten innovaatiokeskusten sekä komission ja jäsenvaltioiden kansallisella tai EU:n tasolla perustamien testaus- ja kokeilulaitosten avulla olisi mahdollista edistää tämän asetuksen täytäntöönpanoa.
Komission tiedonanto (KOM(2021) 205 lopullinen) ja sen liitteenä oleva päivitys tekoälyn eurooppalaisesta koordinoidusta toimintasuunnitelmasta täydentävät asetusehdotusta politiikka-aloitteiden myötä. Tekoälysovellutusten tuominen markkinoille vaatii kokeiluja ja testausta käytännön toimintaympäristöissä, jonka vuoksi komissio on ehdottanut perustettavaksi tekoälyn testaus- ja kokeiluympäristöt eurooppalaisen huippuosaamisen edistämiseksi.
3.11
Euroopan tekoälyneuvosto
Asetusehdotuksen mukaisesti perustettaisiin Euroopan tekoälyneuvosto (European AI Board), joka koostuu jäsenvaltioiden ja komission edustajista. Neuvosto helpottaisi asetuksen sujuvaa, tehokasta ja yhdenmukaistettua täytäntöönpanoa edistämällä kansallisten valvontaviranomaisten ja komission yhteistyötä ja antamalla neuvoja ja asiantuntemusta komissiolle keräten ja jakaen myös parhaita käytäntöjä jäsenvaltioiden kesken.
3.12
Kansalliset toimivaltaiset viranomaiset sekä EU:n tietokanta korkean riskin tekoälyjärjestelmistä
Asetusehdotuksen mukaisesti komissio perustaisi ja ylläpitäisi yhteistyössä jäsenvaltioiden kanssa EU-tietokantaa, joka sisältää tiedot korkean riskin tekoälyjärjestelmistä, jotka on rekisteröity asetusehdotuksen mukaisesti. Komissio toimisi tietokannan rekisterinpitäjänä. Tietokanta olisi julkinen.
Kansallisella tasolla jäsenvaltioiden olisi nimettävä yksi tai useampi kansallinen toimivaltainen viranomainen ja niiden joukossa kansallinen valvontaviranomainen valvomaan asetuksen soveltamista ja täytäntöönpanoa. Jäsenvaltioiden on varmistettava, että kansallisille toimivaltaisille viranomaisille annetaan riittävät taloudelliset ja henkilöresurssit tehtäviensä suorittamiseksi. Euroopan tietosuojavaltuutettu toimisi toimivaltaisena viranomaisena unionin toimielinten, virastojen ja elinten valvonnassa, kun ne kuuluvat tämän asetuksen soveltamisalaan.
3.13
Markkinoiden jälkeinen seuranta, tietojen jakaminen, markkinoiden valvonta
Markkinoille asettamisen jälkeinen seurantajärjestelmä perustuu seurantasuunnitelmaan, joka on osa teknistä dokumentaatiota. Tekoälyjärjestelmien tarjoajien on ilmoitettava markkinavalvontaviranomaisille kaikista vakavista tapahtumista tai toimintahäiriöistä, jotka ovat perusoikeuksien suojaamiseksi tarkoitettujen unionin lainsäädännön mukaisten velvoitteiden rikkomuksia. Kansallisen valvontaviranomaisen on raportoitava säännöllisesti komissiolle asiaankuuluvien markkinavalvontatoimien tuloksista ja varmistettava tarvittavat toimenpiteen ml. tuotteen poistaminen markkinoilta.
Artiklan 66 nojalla komissio voi puuttua toisten jäsenvaltioiden tekemiin toimenpiteisiin koskien tekoälyjärjestelmien toimintavian korjaamista, jos toinen jäsenvaltio on tehnyt tästä aloitteen tai jäsenvaltion toimenpiteet ovat unionin lainsäädännön vastaisia. Artiklan 67 nojalla jäsenvaltion markkinavalvontaviranomainen voi määrätä keskeytettäväksi myös asetuksen edellytykset sinänsä täyttävän järjestelmän käytön, jos se on uhka hengelle, terveydelle, perusoikeuksille tai muulle yleiselle edulle. Tässä menettelyssä kontrollikeinona olisi komission mahdollisuus arvioida jäsenvaltion toimenpiteiden riittävyyttä ja tarvittaessa ehdottaa sopivia toimenpiteitä jäsenvaltioille.
3.14
Menettelytavat
Komission ja jäsenvaltioiden on kannustettava ja helpotettava käytännesääntöjen laatimista, joiden tarkoituksena on edistää asetusehdotuksessa esitettyjen vaatimusten vapaaehtoista soveltamista muihin tekoälyjärjestelmiin kuin korkean riskin tekoälyjärjestelmiin. Muiden kuin korkean riskin tekoälyjärjestelmien tarjoajat voivat itse luoda ja toteuttaa käytännesäännöt, jotka voivat sisältää myös vapaaehtoisia sitoumuksia, jotka liittyvät esimerkiksi ympäristön kestävyyteen, vammaisten henkilöiden saavutettavuuteen, sidosryhmien osallistumiseen tekoälyjärjestelmien suunnitteluun ja kehittämiseen sekä kehitystiimien monimuotoisuuteen. Käytännesäännöt voivat koskea yhtä tai useampaa tekoälyjärjestelmää ottaen huomioon kyseisten järjestelmien käyttötarkoituksen samankaltaisuus.
3.15
Luottamuksellisuus ja rangaistukset
Asetusehdotuksen mukaisesti tämän asetuksen soveltamiseen osallistuvien kansallisten toimivaltaisten viranomaisten ja ilmoitettujen laitosten on kunnioitettava tehtäviensä ja toimintojensa aikana saatujen tietojen luottamuksellisuutta. Komissio ja jäsenvaltiot voivat tarvittaessa vaihtaa luottamuksellisia tietoja niiden kolmansien maiden sääntelyviranomaisten kanssa, joiden kanssa ne ovat tehneet kahden- tai monenvälisiä luottamuksellisuussopimuksia, jotka takaavat riittävän luottamuksellisuuden.
Asetuksen rikkomisesta säädettyjen seuraamusten on oltava tehokkaita, oikeasuhteisia ja varoittavia. Niissä on otettava erityisesti huomioon pienimuotoisten tarjoajien ja toiminnan aloittamisen edut sekä niiden taloudellinen elinkelpoisuus. Hallinnollisia sakkoja voitaisiin määrätä enintään 30 000 000 euroa tai, jos rikkoja on yritys, enintään 6 prosenttia edellisen tilikauden maailmanlaajuisesta vuotuisesta kokonaisliikevaihdosta sen mukaan, kumpi on suurempi. Vaatimusten tai velvoitteiden noudattamatta jättämisestä voitaisiin tietyin ehdoin soveltaa hallinnollisia sakkoja enintään 20 000 000 euroa, tai jos rikoksentekijä on yritys, enintään 4% edellisen tilikauden maailmanlaajuisesta vuotuisesta kokonaisliikevaihdosta sen mukaan, kumpi on korkeampi. Virheellisten, puutteellisten tai harhaanjohtavien tietojen toimittamisesta ilmoitetuille laitoksille tai kansallisille toimivaltaisille viranomaisille voitaisiin määrätä sakkoja enintään 10 000 000 euroa, tai jos rikoksentekijä on yritys, enintään 2 % edellisen tilikauden maailmanlaajuisesta vuotuisesta liikevaihdosta sen mukaan, kumpi on suurempi.
Euroopan tietosuojavaltuutettu voi määrätä hallinnollisia sakkoja unionin toimielimille, virastoille ja elimille, jotka kuuluvat tämän asetuksen soveltamisalaan.
3.16
Toimivallan siirto ja loppusäädökset
Asetusehdotuksen mukaisesti komissiolle siirrettäisiin laajasti valtaa antaa delegoituja säädöksiä määräämättömäksi ajaksi asetuksen liitteiden muuttamiseksi. Artiklassa 73 säädetään delegointivallan käytöstä. Asetusehdotuksen 4 artiklan mukaan delegoiduilla säädöksillä olisi muun muassa mahdollista muuttaa asetuksen liitettä I tekoälyn hyödyntämisessä käytettävistä tekniikoista. Liite I on merkityksellinen asetuksessa käytetyn tekoälyn määritelmän osalta.
Komissio voisi 7 artiklan 1 kohdan mukaan muuttaa asetuksen liitettä III ja lisätä tekoälyjärjestelmiä korkean riskin kategoriaan. Kyseisessä artiklassa säädetyt perusteet, joilla komissio voisi muuttaa liitettä III, mahdollistavat laajasti uusien tekoälyjärjestelmien lisäämisen korkean riskin kategoriaan. Delegoitujen säädösten tarkoituksena on lisätä sääntelyn joustavuutta ja varmistaa, että tekoälyn käytön kehitys voitaisiin huomioida. Samalla kuitenkin on huomioitava sääntelyn ulottuvuuden mahdollinen laajentuminen.
Lisäksi komissio voisi antaa delegoituja säädöksiä 11 artiklan 3 kohdan nojalla korkean riskin tekoälyjärjestelmien teknisen dokumentaation yksityiskohdista, jotka sisältyvät liitteeseen IV, sekä 43 artiklan 5 ja 6 kohdan nojalla vaatimustenmukaisuuden arviointiprosessista, jota koskevat liitteet VI ja VII. Komissio voisi antaa delegoituja säädöksiä 48 artiklan 5 kohdan nojalla EU-vaatimustenmukaisuusvakuuden sisällöstä, jota koskee liite V.
Lisäksi komissiolle ehdotetaan siirrettäväksi täytäntöönpanovaltaa, jonka nojalla se voisi antaa täytäntöönpanosäädöksiä tietyistä asioista. Komissio voisi ehdotuksen mukaan antaa täytäntöönpanosäädöksiä tarkastusmenettelyn mukaisesti seuraavista asioista: päätökset ilmoitettuja laitoksia koskevista korjaavista toimenpiteistä (37 artiklan 4 kohta) ja yhteisistä eritelmistä (41 artikla 1 kohta). Komissio voisi antaa täytäntöönpanosäädöksiä tarkemmista ehdoista ja menettelyistä koskien sääntelyhiekkalaatikoiden toimintaa, niihin osallistumista sekä osallistujien velvollisuuksista ja oikeuksista (53 artiklan 6 kohta). Lisäksi komissio voisi antaa täytäntöönpanosäädöksiä jälkivalvontasuunnitelmaa koskevan lomakkeen yksityiskohdista (61 artiklan 3 kohta). Täytäntöönpanosäädöksiä annettaessa komissiota avustaisi komitologiakomitea asetuksen (EU) N:o 182/2011 nojalla.
Komissiolle delegoitavan säädösvallan ja täytäntöönpanovallan laajuutta ja tarkoituksenmukaisuutta on syytä tarkastella asetuksen jatkovalmistelussa. Perustuslakivaliokunnan mukaan yksilön oikeuksien ja velvollisuuksien perusteista tulee säätää lainsäätämisjärjestyksessä hyväksyttävän unionin säädöksen tasolla (PeVL 12/2012 vp). Näin ollen täytäntöönpanosäädösten antamista sääntelyhiekkalaatikoiden osallistujien velvollisuuksista ja oikeuksista tulee erityisesti tarkastella asetuksen jatkovalmistelussa.
Loppusäädösten mukaan asetetaan siirtymäkausi asetuksen soveltamisen alkamispäivälle, jotta helpotettaisiin sujuvaa täytäntöönpanoa kaikille asianosaisille. Siirtymäkausi olisi tietyin poikkeuksin 24 kuukautta asetuksen voimaantulosta.
7
Ehdotuksen suhde perustuslakiin sekä perus- ja ihmisoikeuksiin
Ehdotuksella on vaikutuksia moniin perusoikeuksiin. Komission näkemyksen mukaan tekoälyn käyttöön liittyy erityisiä piirteitä, kuten monimutkaisuus, riippuvuus datasta sekä autonomisuus, jotka voivat vaikuttaa kielteisesti EU:n perusoikeuskirjassa turvattuihin perusoikeuksiin. Ehdotuksen tavoitteena on varmistaa korkeatasoinen perusoikeuksien suojelu ja vastata tekoälyn aiheuttamiin riskeihin riskiperustaisella lähestymistavalla.
Komission mukaan asetusehdotuksella olisi myönteisiä vaikutuksia erityisten henkilöryhmien oikeuksien, kuten lasten ja vammaisten oikeuksien toteutumiseen. Lisäksi asetuksella olisi vaikutuksia työntekijöiden ja kuluttajien oikeuksiin, joita tulee tarkastella jatkokäsittelyssä.
Suomessa ehdotusta on arvioitava ainakin seuraavien perustuslain säännösten kannalta: Oikeus elämään sekä henkilökohtaiseen vapauteen ja koskemattomuuteen (7 §), yksityisyyden ja henkilötietojen suoja (10 §), yhdenvertaisuus (6 §), elinkeinonvapaus ja oikeus työhön (18 §), oikeusturva ja hyvä hallinto (21 §), sananvapaus (12 §), rikosoikeudellinen laillisuusperiaate (8 §) sekä hallintotehtävän anto muulle kuin viranomaiselle (124 §).
7.1
Oikeus elämään sekä henkilökohtaiseen vapauteen ja koskemattomuuteen
Ehdotus edistää perustuslain 7 §:ssä turvattua oikeutta elämään sekä henkilökohtaiseen vapauteen ja koskemattomuuteen. Kyseinen säännös takaa myös jokaiselle oikeuden turvallisuuteen. Tekoälyjärjestelmien luokitteleminen riskikategorioihin edistää järjestelmien käytön turvallisuutta. Ehdotuksessa kielletään asettamasta markkinoille tiettyjä haitallisia tekoälyjärjestelmiä, jotka esimerkiksi vaikuttaisivat henkilön käyttäytymiseen niin, että seurauksena olisi fyysinen tai psykologinen haitta tai jotka hyväksikäyttäisivät erityisten henkilöryhmien haavoittuvuuksia. Lisäksi henkilöä tulisi ehdotetun pääsäännön mukaan informoida siitä, jos hän on tekemisissä tekoälyjärjestelmän kanssa.
Korkean riskin tekoälyjärjestelmille asetetaan asetuksessa tiettyjä vaatimuksia ja valvontamekanismeja, joiden tarkoituksena on parantaa järjestelmän käytöstä johtuvia haittoja ja ehkäistä henkilöille aiheutuvaa vahinkoa. Järjestelmä voidaan luokitella korkean riskin tekoälyjärjestelmäksi esimerkiksi sillä perusteella, että se aiheuttaa vaaran henkilön terveydelle ja turvallisuudelle tai heikentää perusoikeuksien toteutumista. Kun komissio arvioi tekoälyjärjestelmien lisäämistä korkean riskin kategoriaan delegoitujen säädösten avulla, sen tulee ottaa huomioon muun muassa tekoälyjärjestelmän potentiaaliset vahingolliset vaikutukset terveydelle ja turvallisuudelle sekä kielteiset vaikutukset perusoikeuksien toteutumiselle.
7.2
Yksityisyyden ja henkilötietojen suoja
Asetusehdotuksen sääntely on merkityksellistä perustuslain 10 §:ssä säädetyn yksityiselämän suojan kannalta. Perustuslain 10 § 1 momentin mukaan jokaisen yksityiselämä, kunnia ja kotirauha on turvattu, ja henkilötietojen suojasta säädetään tarkemmin lailla.
Asetusehdotuksessa kielletään tai luokitellaan korkean riskin kategoriaan tekoälyjärjestelmät, jotka heikentäisivät yksityisyyden suojaa, kuten biometriseen tunnistukseen tai henkilöiden luokitteluun liittyviä järjestelmiä.
Asetusehdotuksen suhdetta unionin tietosuojasääntelyyn sekä toimijoiden eri rooleihin tietosuojasääntelyn nojalla tulee kokonaisuudessaan täsmentää jatkovalmistelussa, mukaan lukien käyttäjiä koskevien velvoitteiden suhde yleisen tietosuoja-asetuksen 22 artiklaan. Esimerkiksi korkean riskin tekoälyjärjestelmiä (johdantokappaleet 33-40; artikla 6; liite III) koskevien säännösten tietosuojavaikutuksia tulisi tarkastella muun muassa biometrisen tunnistuksen ja henkilöiden luokittelun, luonnollisten henkilön luottoluokituksen ja työelämän järjestelmien osalta tarkemmin. Lisäksi korkean riskin järjestelmien velvollisuuksia koskevaa 10 artiklaa tulisi myös tarkastella siltä osin, miten 10 artikla suhtautuu EU:n tietosuojasääntelyyn erityisesti vaikutustenarvioinnin osalta. 10(5) artiklan nojalla arkaluonteistenkin tietojen käsittely olisi sallittua siltä osin kuin se on tarpeen tekoälyjärjestelmässä esiintyvien vinoumien korjaamiseksi ja ennaltaehkäisemiseksi, missä on kyse tietosuojan ja tekoälyjärjestelmien aiheuttamien riskien torjumisen välisestä punninnasta. Myös sääntelyhiekkalaatikoita koskevien artiklojen (53-54) suhdetta EU:n tietosuojalainsäädäntöön olisi syytä arvioida jatkovalmistelussa tarkemmin.
Tiettyjen tekoälyjärjestelmien (52 artikla), jotka ovat vuorovaikutuksessa luonnollisten henkilöiden kanssa, tunnistavat tunteita tai käyttävät biometristä luokitusjärjestelmää tai käyttävät nk. ”deep fake” -teknologiaa, vaikutuksia tulisi vielä arvioida tarkemmin suhteessa tietosuojasääntelyyn ottaen huomioon oikeusperusta tietojen käsittelylle sekä läpinäkyvyyteen ja informointiin liittyvät seikat.
Tekoälyjärjestelmien toimijoilla olisi velvollisuus antaa tietoa kansallisille viranomaisille tekoälyjärjestelmän vaatimustenmukaisuudesta tai antaa viranomaisille pääsy järjestelmän lokitietoihin 23 artiklan nojalla. Asetusehdotuksen 37 artiklassa säädetään komission oikeudesta saada tietoja kansalliselta viranomaiselta, jos ilmoitetun laitoksen epäillään rikkovan asetuksesta seuraavia velvoitteita. Komission tulee käsitellä tällaista tietoa luottamuksellisesti. Asetusehdotuksen 64 artiklassa säädetään markkina-valvontaviranomaisen oikeudesta päästä tekoälyjärjestelmien tuottajien tietoaineistoihin tai tarvittaessa lähdekoodeihin tehtäviensä hoitamiseksi. Samassa artiklassa säädetään kansallisten viranomaisten tai elinten oikeudesta päästä tekoälyjärjestelmien toimijoiden asiakirjoihin, jotka ovat syntyneet tämän asetuksen johdosta, ja jotka ovat tarpeellisia näiden tehtävien toteuttamiseksi kansallisen toimivallan nojalla. Näitä säännöksiä on arvioitava myös perustuslain 10 §:n 1 momentin nojalla, jos tiedonsaantioikeudet kohdistuvat yksityisyyden suojan piiriin kuuluviin tietoihin.
Asetusehdotuksen 70 artiklassa säädetään luottamuksellisuudesta koskien kansallisten toimivaltaisten viranomaisten ja ilmoitettujen elinten tehtävien hoidossa saatuja tietoja sekä tiedonvaihdosta komission kanssa. Artiklaa tulisi vielä tarkastella, eikä sääntelyn tulisi johtaa julkisuusperiaatteen kaventumiseen. Ehdotukseen sisältyviä luottamuksellisia tietoja koskevia säännöksiä on myös tarkasteltava perustuslain 12 §:n 2 momentissa turvatun julkisuusperiaatteen kannalta ja arvioitava kansallisen liikkumavaran tarvetta säännöksessä.
7.3
Yhdenvertaisuus ja sukupuolten tasa-arvo
Perustuslain 6 §:n 1 momentin mukaan ihmiset ovat yhdenvertaisia lain edessä. Kyseessä on yleinen yhdenvertaisuussäännös, johon kuuluvat vaatimus samanlaisesta kohtelusta samanlaisissa tapauksissa ja mielivallan kielto. Yleistä yhdenvertaisuussäännöstä täydentää pykälän 2 momentissa säädetty syrjintäkielto. Säännöksen mukaan kiellettyjä erotteluperusteita ovat sukupuoli, ikä, alkuperä, kieli, uskonto, vakaumus, mielipide, terveydentila ja vammaisuus. Luetteloa ei kuitenkaan ole pidettävä tyhjentävänä vaan kiellettyihin erotteluperusteihin rinnastuvat muut henkilöön liittyvät syyt (HE 309/1993 vp, s. 43–44). Yhdenvertaisuuslain (1325/2014) mukaan ketään ei saa syrjiä iän, alkuperän, kansalaisuuden, kielen, uskonnon, vakaumuksen, mielipiteen, poliittisen toiminnan, ammattiyhdistystoiminnan, perhesuhteiden, terveydentilan, vammaisuuden, seksuaalisen suuntautumisen tai muun henkilöön liittyvän syyn perusteella. Syrjintä on kielletty riippumatta siitä, perustuuko se henkilöä itseään vai jotakuta toista koskevaan tosiseikkaan tai oletukseen. Tasa-arvolain (Laki naisten ja miesten välisestä tasa-arvosta, 609/1986) tarkoituksena on puolestaan estää muun muassa sukupuoleen perustuva syrjintä ja edistää naisten ja miesten välistä tasa-arvoa.
Asetusehdotuksessa pyritään estämään tekoälyn syrjivyyden vaikutukset asettamalla vaatimuksia tekoälyjärjestelmän kehittämiselle, koulutukselle ja käytölle, esimerkiksi korkealaatuisen datan käytön vaatimusten sekä tekoälyjärjestelmiä koskevien läpinäkyvyysvelvoitteiden avulla. Komission arvion mukaan korkealaatuiset algoritmit ja data ovat keskeisiä edellytyksiä syrjinnän estämiselle. Tekoälyjärjestelmän vaatimustenmukaisuusvalvontaa, testausta ja jälkivalvontaa koskevat velvoitteet auttavat tunnistamaan järjestelmän poikkeavuuksia ja siten myös edistämään syrjinnän ehkäisyä. Asetusehdotuksessa kielletään tietyt käyttötapaukset, joissa viranomaiset käyttävät tekoälyjärjestelmiä henkilöiden luotettavuuden arviointiin sosiaalisen pisteytyksen avulla ja joka mahdollisesti johtaisi tiettyjen henkilöryhmien epäedulliseen kohteluun.
7.4
Elinkeinonvapaus ja oikeus työhön
Perustuslain 18 §:n 1 momentin mukaan jokaisella on oikeus lain mukaan hankkia toimeentulonsa valitsemallaan työllä, ammatilla tai elinkeinolla. Julkisen vallan on huolehdittava työvoimansuojelusta. Ehdotuksessa asetetaan laajoja ja yksityiskohtaisia vaatimuksia tekoälyjärjestelmille sekä tuottajiin, maahantuojiin, jakelijoihin ja käyttäjiin kohdistuvia velvollisuuksia. Tekoälyjärjestelmille luodaan vaatimustenmukaisuuden valvontaa koskevia mekanismeja ennen tekoälyjärjestelmän asettamista markkinoille tai sen käyttöönottoa.
Kyseiset vaatimukset merkitsevät puuttumista perustuslaissa turvattuun elinkeinonvapauteen. Elinkeinonvapauteen tehtävien poikkeusten tarkoituksena on parantaa tekoälyjärjestelmien turvallisuutta ja luotettavuutta. Jatkokäsittelyssä tulisi kuitenkin varmistaa, etteivät vaatimukset aseta liikaa markkinoille tulon esteitä tai hallinnollista taakkaa tekoälyjärjestelmien tuottajille.
Asetusehdotuksessa ilmoitetuille laitoksille, jotka vahvistavat tekoälyjärjestelmän vaatimustenmukaisuuden, asetetaan erityisiä vaatimuksia ja näiden tulee hakea notifiointia kansalliselta viranomaiselta. Komissio ylläpitää julkisesti saatavilla olevaa listaa ilmoitetuista laitoksista ja myöntää näille identifiointinumeron. Perustuslakivaliokunta on lausuntokäytännössään rinnastanut elinkeinotoiminnan aloittamisen edellytykseksi säädettävän rekisteröitymisvelvollisuuden luvanvaraisuuteen (PeVL 58/2010 vp ja PeVL 15/2008 vp, PeVL 24/2000 vp, PeVL 45/2001 vp). Näin ollen velvollisuus notifioinnin hakemiseen rinnastuu mahdollisesti elinkeinotoiminnan luvanvaraisuuteen. Asetusehdotuksessa asetetaan myös pakollinen vaatimus rekisteröidä tekoälyjärjestelmät komission ylläpitämään EU:n yhteiseen tietokantaan. Kyseessä olisi kuitenkin tekoälyjärjestelmää koskeva rekisteröintivelvollisuus eikä toimijan rekisteröintivelvollisuus.
Ehdotuksen kannalta relevantteja ovat myös 18 artiklan 3 momentti, jossa todetaan, että ketään ei saa ilman lakiin perustuvaa syytä erottaa työstä.
7.5
Oikeusturva ja hyvä hallinto
Perustuslain 21 § 1 momentin mukaan jokaisella on oikeus saada asiansa käsitellyksi asianmukaisesti ja ilman aiheetonta viivytystä lain mukaan toimivaltaisessa tuomioistuimessa tai muussa viranomaisessa sekä oikeus saada oikeuksiaan ja velvollisuuksiaan koskeva päätös tuomioistuimen tai muun riippumattoman lainkäyttöelimen käsiteltäväksi. Pykälän 2 momentin mukaan käsittelyn julkisuus sekä oikeus tulla kuulluksi, saada perusteltu päätös ja hakea muutosta samoin kuin muut oikeudenmukaisen oikeudenkäynnin ja hyvän hallinnon takeet turvataan lailla.
Hyvän hallinnon ja oikeusturvan kannalta keskeisiä ovat julkisen sektorin käyttämät tietojärjestelmät, mukaan lukien päätöksenteossa käytettävät järjestelmät. Perustuslakivaliokunta on kiinnittänyt perustuslain 21 §:n ja julkisen vallan käytön lakiperustaisuuden näkökulmasta huomiota siihen, ettei automaattisessa päätöksenteossa massaluonteisessakaan toiminnassa saa vaarantaa hyvän hallinnon vaatimuksia tai asianosaisen oikeusturvaa (PeVL 49/2017 vp, s. 5, PeVL 35/2005 vp, s. 2/I, PeVL 7/2019 vp).
Oikein käytettynä ja toteutettuna tekoälyjärjestelmien avulla voidaan järjestää hallinnon toimintaa tavalla, joka edistää hallinnossa asioivien ja hallinnon kohteena olevien tasapuolista kohtelua, luottamuksensuojaa, sekä viranomaisen toiminnan tarkoitussidonnaisuutta. Jos hallinnon toimintaa järjestetään asianmukaisesti tekoälyjärjestelmän tai muun tietojärjestelmän avulla, yksittäisten virkamiesten virheet, ennakkoluulot, vinoumat tai väärinkäytökset eivät ole enää yhtä merkityksellisiä. Asetuksessa asetettavat, korkean riskin tekoälyjärjestelmiin kohdistuvat vaatimukset mm. koulutusdatan laadusta, järjestelmän valvomisesta, järjestelmän toiminnan läpinäkyvyydestä sitä käyttävälle viranomaiselle, sekä järjestelmän testaamisesta edistävät tällaista oikeaa käyttö- ja toteuttamistapaa. Tekoälyjärjestelmien käyttö edistää myös viranomaisten tehokasta ja tuloksellista toimintaa, mikä parantaa hallinnon palveluiden saatavuutta.
Asetusehdotuksen liitteen III mukaan korkean riskin tekoälyjärjestelmiin kuuluvat järjestelmät, joita käytetään tehtäessä päätöksiä julkisiin palveluihin pääsystä ja etuuksien käyttämisestä. Korkean riskin järjestelmien määritelmä kattaa myös monia muita julkisessa hallinnon kannalta merkityksellisiä tekoälyjärjestelmiä, kuten lainvalvonnassa, maahanmuutossa, oikeudenhoidossa ja demokraattisissa prosesseissa käytettävät järjestelmät. Järjestelmiä käytetään muun muassa oikeusviranomaisen avustamisessa lain tulkinnassa ja soveltamisessa. Kyseisiä korkean riskin tekoälyjärjestelmiä koskevat asetuksessa asetetut erityiset vaatimukset, kuten tietoaineistojen laatuvaatimukset, läpinäkyvyys, turvallisuus sekä ihmisen valvonta. Näiden vaatimusten voidaan osaltaan katsoa edistävän hyvän hallinnon periaatteiden toteutumista. Asetusehdotuksessa ei kuitenkaan säännellä jäsenvaltioiden velvollisuudesta varmistaa muutoksenhaku tekoälyn tekemiin päätöksiin julkisen hallinnon toiminnassa, vaan tämä jää muun sääntelyn varaan.
Asetusehdotuksen mukaan asetusta toimeenpanevat ja sen noudattamista valvovat viranomaiset on organisoitava niin, että ne ovat riippumattomia vaatimuksenmukaisuutta arvioivien tahojen toiminnasta ja niin että niiden puolueettomuus ja objektiivisuus varmistetaan. Lisäksi viranomaiset eivät esimerkiksi saa tarjota kaupallisia palveluita, jotka liittyvät vaatimuksenmukaisuuden arviointiin. Objektiivisuuden ja tasapuolisuuden vaatimukset koskevat myös vaatimuksenmukaisuuden arvioijia. Tämä osaltaan edistää hyvän hallinnon periaatteiden toteutumista.
7.6
Sananvapaus
Perustuslain 12 §:n 1 momentissa turvataan sananvapaus. Kyseisen säännöksen mukaan sananvapauteen sisältyy oikeus ilmaista, julkistaa ja vastaanottaa tietoja, mielipiteitä ja muita viestejä kenenkään ennakolta estämättä. Sananvapauden osalta merkityksellisiä ovat läpinäkyvyysvelvoitteet nk. ”deep fake” –teknologiaa hyödyntävistä sisällöistä. Asetusehdotuksessa säädetään velvollisuudesta ilmoittaa tekoälyn käytöstä järjestelmissä, jotka tuottavat kuva-, ääni- tai videosisältöä tarkoituksenaan muistuttaa todellista henkilöä tai muuta kohdetta. Koska kyseisen säännöksen tarkoituksena on turvata tekoälyjärjestelmien turvallisuus ja ehkäistä ihmisille aiheutuvaa haittaa, säännöstä voidaan pitää alustavasti ongelmattomana sananvapauden kannalta. Lisäksi säännökseen voitaisiin tehdä poikkeuksia sen perusteella, että nk. ”deep fake” –teknologiaa hyödyntäviä sisältöjä käytettäisiin oikeutettuihin tarkoituksiin (kuten rikostutkintaan) lain nojalla tai muihin tarpeellisiin tarkoituksiin sananvapauden tai taiteen ja tieteen harjoittamisen toteuttamiseksi. Jatkokäsittelyssä on kuitenkin syytä kiinnittää deep fake -teknologian määrittelyssä siihen, miten se suhteutuu perinteisiin keinoihin muokata todellisuutta kuva-, ääni- tai videosisällöissä.
7.7
Rikosoikeudellinen laillisuusperiaate
Asetusehdotuksen artiklan 71 mukaan jäsenvaltioiden tulee säätää rangaistuksista, mukaan lukien sakoista, jotka koskevat asetuksen rikkomista. Alustavan arvion mukaan rangaistukset kattaisivat kansallisesti hallinnolliset sanktiot. Rangaistusluonteiset hallinnolliset sanktiot eivät ole suoraan rinnastettavissa rikosoikeudellista laillisuusperiaatetta koskevassa perustuslain 8 §:ssä tarkoitettuihin rikosoikeudellisiin seuraamuksiin. Perustuslakivaliokunnan lausuntokäytännön mukaan näitä sanktioita koskevan sääntelyn tulee täyttää yleiset tarkkuuden ja oikeasuhtaisuuden vaatimukset (PeVL 14/2013 vp, s. 2/II, PeVL 34/2012 vp, s. 3–4, PeVL 17/2012 vp, s. 6). Nämä vaatimukset tulisi huomioida asetusehdotuksen jatkokäsittelyssä hallinnollisten sanktioiden osalta.
Hallinnollisten sanktioiden osalta tulisi pyrkiä varmistamaan riittävä kansallinen liikkumavara erityisesti sen huomioimiseksi, että Suomessa ei tällä hetkellä voida määrätä hallinnollisia seuraamusmaksuja viranomaisille, sillä viranomaisille voidaan määrätä ainoastaan rikosoikeudellisia seuraamuksia. Lisäksi tulisi arvioida ehdotettujen säännösten suhdetta muun muassa yleisen tietosuoja-asetuksen mukaisiin hallinnollisiin seuraamuksiin tai muihin jäsenvaltioiden kansalliseen liikkumavaraan kuuluviin seuraamuksiin.
7.8
Hallintotehtävän antaminen muulle kuin viranomaiselle
Perustuslain 124 §:n mukaan julkinen hallintotehtävä voidaan antaa muulle kuin viranomaiselle vain lailla tai lain nojalla, jos se on tarpeen tehtävän tarkoituksenmukaiseksi hoitamiseksi eikä vaaranna perusoikeuksia, oikeusturvaa tai muita hyvän hallinnon vaatimuksia. Merkittävää julkisen vallan käyttöä sisältäviä tehtäviä voidaan kuitenkin antaa vain viranomaiselle. Asetusehdotuksessa ilmoitetuille laitoksille annettaisiin viranomaiselle kuuluvia tehtäviä, koska laitokset vahvistaisivat tekoälyjärjestelmien vaatimustenmukaisuuden. Ilmoitetulle laitokselle säädettyjä tuotteen vaatimustenmukaisuuden arviointiin liittyviä tehtäviä ei ole pidetty merkittävänä julkisen vallan käyttönä (vrt. HE 21/2016 vp, s. 37, HE 182/2013 vp, s. 19). Ilmoitetuille laitoksille asetetaan erityisiä vaatimuksia artiklan 33 nojalla, kuten itsenäisyyteen ja puolueettomuuteen liittyviä vaatimuksia, jotka osaltaan turvaavat hyvän hallinnon vaatimusten toteutumista. Kansalliset valvontaviranomaiset valvoisivat ilmoitettujen laitosten toimintaa. Jäsenvaltioiden tulisi varmistaa, että ilmoitettujen laitosten tekemiin päätöksiin voidaan hakea muutosta.
Artikla 34 mukaan ilmoitetun laitoksen olisi mahdollista siirtää vaatimustenmukaisuuden arviointia koskevia tehtäviä alihankkijalle, jonka tulisi täyttää samat vaatimukset kuin ilmoitettu laitos. Tehtävän siirrosta tulisi ilmoittaa kansalliselle valvontaviranomaiselle. Perustuslakivaliokunnan mukaan yksityiselle siirretyn julkisen hallintotehtävän edelleen siirtämiseen (subdelegointiin) on suhtauduttava lähtökohtaisesti kielteisesti (PeVL 26/2017 vp). Ehdotonta kieltoa tällaiselle siirtämiselle ei kuitenkaan ole ollut osoitettavissa tilanteissa, joissa on kyse teknisluonteisesta tehtävästä ja joissa alihankkijaan kohdistuvat samat laatuvaatimukset ja vastaava valvonta kuin alkuperäiseen palveluntuottajaan (PeVL 6/2013 vp, s. 4). Sääntelyn asianmukaisuutta suhteessa perustuslain 124 §:ssä säädettyyn tulee jatkovalmistelussa vielä arvioida kaikkien siirtämiselle asetettujen oikeudellisten edellytysten valossa.
9
Valtioneuvoston kanta
Yritysten ja talousalueiden välinen globaali kilpailutilanne vaatii, että EU:sta luodaan tekoälyn kehittämiselle ja soveltamiselle suotuisa toimintaympäristö, joka vahvistaa yritysten kansainvälistä kilpailukykyä ja kannustaa investointeihin. Euroopan teknologinen kilpailukyky perustuu digitaaliselle kehitykselle, innovaatioille, osaamiselle ja toimiville sisämarkkinoille.
Valtioneuvosto pitää kannatettavana, että asetuksella pyritään luomaan edellytykset luottamuksen ekosysteemille, joka edesauttaa tekoälyn vastuullista kehittämistä, markkinoille saattamista ja käyttöönottoa Euroopassa tarjoten eettisesti kestävän toimintakehyksen. Valtioneuvosto katsoo, että EU:n kilpailukyvyn vahvistamiseksi ja tavoitteiden saavuttamiseksi tarvitaan yhtenäisyyttä ja yhteistä arvopohjaista lähestymistapaa ja panostusta kansallisella sekä EU:n tasolla.
Valtioneuvosto tukee komission esittämiä tavoitteita sääntelykehykselle, joiden mukaan varmistetaan, että unionin markkinoille saatetut ja unionin markkinoilla käytetyt tekoälyjärjestelmät ovat turvallisia ja kunnioittavat voimassa olevia perusoikeuksia ja unionin arvoja koskevaa lainsäädäntöä. Valtioneuvosto kannattaa komission ihmiskeskeistä ja luottamusta korostavaa lähestymistapaa jossa eurooppalainen tekoäly perustuu vapauden, ihmisarvon ja yksityisyyden suojan arvoihin.
Valtioneuvosto toteaa, että tekoälyjärjestelmien käyttöön liittyy paljon perusoikeusliitännäisiä kysymyksiä ja huomioi, että oikein käytettynä tekoälyratkaisut voivat myös edistää perusoikeuksien toteutumista. Valtioneuvosto pitää tärkeänä, että jatkovalmistelussa ehdotuksen soveltamisalakysymyksiä arvioidaan huolellisesti perusoikeuksien toteutumisen kannalta.
Valtioneuvosto katsoo, että teknologian kehitykseen ja käyttöönottoon liittyviä perus- ja ihmisoikeuskysymyksiä, turvallisuusuhkia, taloudellisia ja toimitusketjujen riippuvuuksia sekä taustalla vaikuttavaa geopoliittista kontekstia tulee tarkastella kokonaisvaltaisesti. Jatkokäsittelyssä tulee huomioida myös kyberturvallisuus. Digitaalisten ratkaisujen, tekoälyn ja algoritmipohjaisen päätöksenteon tuen kehittämisessä on tärkeää kiinnittää huomiota yhdenvertaisuuteen, sukupuolten tasa-arvoon ja syrjimättömyyteen.
Valtioneuvosto huomioi, että selkeä sääntelykehys, oikeudellinen varmuus sekä tasapuolinen kilpailuympäristö auttavat lisäämään kuluttajien, julkisen sektorin ja yritysten luottamusta tekoälyyn ja siten nopeuttaa tekoälyn käyttöönottoa. Valtioneuvosto kannattaa tavoitteita, joiden mukaan varmistetaan sääntelyn oikeusvarmuus investointien ja innovaatioiden helpottamiseksi sekä helpotetaan laillisten, turvallisten ja luotettavien tekoälysovellusten sisämarkkinoiden kehittämistä.
Valtioneuvosto tukee komission pyrkimyksiä varmistaa nykyisten sisämarkkinasääntöjen tehokas toimeen- ja täytäntöönpano ja lähtökohtaisesti kannattaa markkinavalvonta-asetuksen (EU) 2019/1020 soveltamista myös tekoälyjärjestelmien valvonnassa markkinavalvontamenettelyjen yhdenmukaisuuden varmistamiseksi huomioiden, että jäsenvaltioille jätetään tarpeeksi liikkumavaraa kansallisten toimivaltaisten viranomaisten nimeämisessä ja markkinavalvonnan järjestämisessä käytännössä.
Valtioneuvosto katsoo, että mahdollisen uuden sääntelyn tulee olla soveltamisalaltaan selkeä ja noudattaa paremman sääntelyn periaatteita ja katsoo, että vaatimusten tulee olla oikeasuhtaisia eikä niiden tulisi muodostaa tarpeetonta hallinnollista tai taloudellista taakkaa. Tekoälyjärjestelmien tuottajille, maahantuojille, jakelijoille ja käyttäjille asetettavien velvoitteiden ja eri toimijoiden roolien ja niihin liittyvien vastuiden tulee olla selkeitä. Lisäksi on arvioitava, kuinka laajaa osaamista ja tietoa lainsäädännön sisällöstä eri toimijoilta voidaan edellyttää. Myös toimijoiden erikokoisuuteen sekä tosiasiallisiin mahdollisuuksiin täyttää asetetut velvoitteet tulee kiinnittää huomiota.
Valtioneuvosto katsoo, että julkisen sektorin erityisluonne tulee huomioida ja oikeus hyvään hallintoon tulee turvata viranomaisten osalta. Tulee myös huolehtia, ettei julkisen sektorin toimijoille synny tarpeetonta sääntelytaakkaa, koska julkisen sektorin toimintaan kohdistuu jo kansallista sääntelyä muun muassa hyvän hallinnon, läpinäkyvyyden ja tiedonhallinnan osalta. Valtioneuvosto katsoo, että julkisen hallinnon alaan kuuluvia tehtäviä, joissa käytetään korkean riskin tekoälyjärjestelmiä, koskevaa ehdotettua sääntelyä tulee selkeyttää ja tarkentaa. Valtioneuvosto toteaa, että asetusehdotuksen vaikutuksia julkisen hallinnon digitalisaatioon tulee tarkastella.
Valtioneuvosto huomioi, että asetusehdotuksen suhdetta muuhun unionin sääntelyyn, kuten yleiseen tietosuoja-asetukseen, markkinavalvontaa koskevaan sääntelyyn, yleiseen tuoteturvallisuusdirektiiviin, tuotevastuudirektiiviin sekä olemassa olevaan sektorikohtaiseen lainsäädäntöön esimerkiksi liikennesektorilla, tulee täsmentää neuvotteluissa. Valtioneuvosto katsoo, että eri säädösten ja säädösehdotusten keskinäisriippuvuuden vuoksi sääntelyä tulisi arvioida kokonaisuutena EU-lainsäädännön laadun, selkeyden ja toimivuuden kannalta sekä vahvistaa hallinnon alojen välistä viranomaiskoordinaatiota ja yhteistyötä. Jatkokäsittelyssä tulee myös tarkentaa ehdotusten taloudellisia vaikutuksia muun muassa virastoille aiheutuvien lisätehtävien suhteen.
Valtioneuvosto tukee tavoitetta lähestyä tekoälyn oikeudellisen kehyksen luomista riskiperustaisesti ja käyttötapauskohtaisesti, jotta varmistetaan ehdotuksen oikeasuhtaisuus kiinnittäen samalla huomiota riskiperustaisen ja käyttötapauskohtaisen lähestymistavan selkeyteen. Valtioneuvosto painottaa lisäksi mahdollisuutta hyödyntää itsesääntelyä.
Valtioneuvosto toteaa komission esityksen sisältävän kokonaan kiellettävät tekoälyjärjestelmät ja katsoo, että jatkovalmistelussa on syytä varmistaa, että kiellettyjen tekoälyjärjestelmien määrittely on selkeää, tarkkarajaista ja oikeasuhtaista.
Valtioneuvosto toteaa, että komissio esittää erottelua reaaliaikaisen ja jälkikäteen tapahtuva biometrisen tunnistamisen välillä. Valtioneuvosto voi hyväksyä erottelun mutta samalla tulee huolehtia siitä, että reaaliaikainen biometristen järjestelmien käyttö edellä mainituilla alueilla henkilöiden tunnistamisessa on mahdollista tietyin, tarkkarajaisin ehdoin suhteellisuusperiaate ja perus- ja ihmisoikeudet huomioon ottaen. Huomiota tulee kiinnittää käyttötapausten määrittelyn selkeyteen sekä oikeasuhtaisuuteen.
Valtioneuvosto kiinnittää huomiota siihen, että korkean riskin käyttötapauksiin kohdennettavan sääntelyn soveltamisalan tulee olla selkeä, oikeasuhtainen ja perusteltu. Valtioneuvosto huomioi, että korkean riskin käyttötarkoituksiin liittyvien avustavien ja valmistelevien tekoälyjärjestelmien kohdalla, jotka toimivat ihmiskäyttäjän harkinnan tukena, tulisi selkeyttää sitä millä tavalla ja millä laajuudella käytettynä tällaiset järjestelmät luetaan korkean riskin järjestelmäksi koskien esimerkiksi arviointia koulutuksessa. Valtioneuvosto pitää lisäksi tärkeänä sitä, että työntekijöiden ja työnhakijoiden oikeudet turvataan myös silloin kun päätöksenteossa hyödynnetään tekoälyä.
Valtioneuvosto pitää tärkeänä varmistaa oikeasuhtaisuus ja tarkkuus myös tekoälyjärjestelmien tiedonhallinnan ja tiedon laatua koskevien vaatimusten osalta. Valtioneuvosto katsoo, että ehdotuksessa edellytetty tekoälyjärjestelmien ihmisvalvonta kaipaa selkeyttämistä ja täsmentämistä. Valtioneuvosto huomioi asetusehdotuksen läpinäkyvyysvelvoitteen piiriin kuuluvat tekoälyjärjestelmien velvoitteet ja toteaa, että ehdotuksen vaikutuksia tulee arvioida tarkoin. Jatkokäsittelyssä tulee myös varmistaa, että korkean riskin tekoälyjärjestelmien rekisteröinti EU:n tietokantaan on tarkoituksenmukaista ja turvallista.
Valtioneuvosto katsoo, että velvoitteiden noudattamisesta ei tule syntyä liian korkeaa kynnystä tai liian pitkää hidastetta kehittämiselle ja markkinoille asettamiselle ja pitää tärkeänä, että asetusehdotus mahdollistaa tekoälyä koskevan tieteellisen tutkimustoiminnan sekä yritystoiminnan. Asetusehdotuksen vaikutuksia yritysten tutkimus-, kehittämis- ja innovaatiotoimintaan tulisi täsmentää.
Valtioneuvosto kiinnittää huomiota myös tekoälyteknologioiden luonteeseen ja siihen, että tekoälyteknologiat ovat joukko kehittyviä ohjelmistoja ja teknologioita, joille ei voida antaa yksiselitteistä määritelmää. Sääntelyn riittävän tarkkarajaisuuden varmistamiseksi tekoälyn määritelmää tulee tarkastella jatkokäsittelyssä ja selventää, sovelletaanko asetusta tietojärjestelmäkokonaisuuden tekoälyosaan vai tekoälyosan myötä koko tietojärjestelmäkokonaisuuteen. Uuden teknologian kehittyessä on varmistettava lainsäädännön ajantasaisuus ja teknologianeutraalius.
Valtioneuvosto katsoo, että hallinnollisia sanktioita koskevaa ehdotusta on arvioitava siinä valossa, että sääntelyn tulee täyttää yleiset tarkkuuden ja oikeasuhtaisuuden vaatimukset. Ehdotetun seuraamusjärjestelmän suhdetta muuhun lainsäädäntöön, mukaan lukien erityisesti EU:n yleiseen tietosuoja-asetukseen perustuvaan seuraamuksia koskevaan sääntelyyn, olisi arvioitava neuvottelujen aikana tarkemmin. Kansallisten viranomaisten osalta on syytä varmistaa riittävän sääntelyliikkumavaran säilyminen.
Valtioneuvosto katsoo, että komissiolle delegoitavien toimivaltuuksien tulee olla selkeitä, tarkkarajaisia, oikeasuhtaisia, tarkoituksenmukaisia ja hyvin perusteltuja. Jatkokäsittelyssä komissiolle delegoitavan säädösvallan ja täytäntöönpanovallan laajuutta ja tarkoituksenmukaisuutta tulee tarkastella huomioiden myös sääntelyn ennakoitavuus eri toimijoille sekä vaikutukset toimintaympäristöön.
Valtioneuvosto painottaa mahdollisuutta hyödyntää parhaiden käytänteiden jakamista. Lisäksi valtioneuvosto tukee komission näkemystä siitä, että erityisesti pk-yrityksiä tulee tukea digitaalisessa siirtymässä. Valtioneuvosto tukee asetusehdotuksen tavoitetta tukea pk-yrityksiä sääntelyn hiekkalaatikoiden sekä testaus- ja kokeiluympäristöjen perustamisen myötä, mutta pitää tärkeänä, että sääntelyn soveltamisalasta ja toimijoiden velvoitteista sekä niistä tehtävien poikkeusten edellytyksistä säädetään tarkkarajaisesti perussäädöksessä ja sääntelyssä turvataan toimijoiden yhdenvertaisuus.
Valtioneuvosto toteaa, että asetusehdotuksen mainintaa sotilaallisiin tarkoituksiin kehitettyjen ja käytettyjen tekoälyjärjestelmien rajautumisesta soveltamisalan ulkopuolelle tulisi jatkovalmisteluissa täsmentää huomioimaan vastaavalla tavalla erikseen sisältyvin osin myös kansallisen turvallisuuden ylläpitämiseen sisältyvät tarkoitukset. Valtioneuvosto suhtautuu varauksella luottamuksellisia tietoja koskevaan säännösehdotukseen koskien artiklaa 70 huomioiden, että sääntelyn ei tulisi johtaa julkisuusperiaatteen kaventumiseen.