Väitöskirjatutkija Saija Salosen mukaan tekoälyn käyttö sosiaaliturvan valvonnassa voi johtaa rakenteelliseen syrjintään.
– Tekoälyn käyttö sosiaaliturvan valvonnassa on eettisesti haastavaa ja voi vaarantaa perusoikeuksia, Salonen toteaa Helsingin Sanomien mielipidekirjoituksessa viitaten Amnesty Internationalin Likhita Banerjin ja Mariko Saton aiemmin julkaistuun Helsingin Sanomien mielipidekirjoitukseen.
Salosen mukaan tekoälylukutaito tarkoittaa esimerkiksi kykyä ymmärtää, miten tekoälyjärjestelmät tuottavat tietoa, miten niitä käytetään ja millaisia eettisiä valintoja niihin sisältyy.
– Tekoälyn kriittinen ja vastuullinen käyttö on edellytys toimivalle demokratialle.
Suunnitellun kaltainen tekoälypohjainen valvontajärjestelmä käsittelisi Salosen mukaan erittäin arkaluonteista dataa, kuten terveys- ja taloustietoja. Vaikka lainsäädäntö, mukaan lukien EU:n AI-sääntely, asettaa reunaehtoja, kansalaisten on hänen mukaansa voitava valvoa omia tietojaan ja saada tietää, miten heidän dataansa kerätään, yhdistellään ja käytetään päätöksenteossa.
– Ilman läpinäkyvyyttä ja oikeutta korjata virheitä järjestelmät heikentävät luottamusta ja oikeusturvaa.
Oppiva tekoäly ei vain käsittele tietoa vaan muodostaa uusia merkityksiä.
– Tiedonmuodostusprosessiin voi syntyä vinoumia sekä aineistosta että oppimisvaiheista, eikä näitä prosesseja useinkaan dokumentoida tai avata riittävästi. Virheet ja varhaiset yleistykset voivat jäädä piiloon ja vaikuttaa päätöksiin pitkään.
Sosiaaliturvan valvonnassa tämä voi Salosen mielestä johtaa ihmisten profilointiin ja rakenteelliseen syrjintään, jossa moninaiset elämäntilanteet voidaan tulkita epäilyttäviksi.
– Esitän myös eettisen kysymyksen: Olisiko vastaava järjestelmä eettisesti kestävä esimerkiksi yritysten taikka verovelvollisten seurantaan? Jos ei olisi, miksi se sallittaisiin kaikista köyhimpien kohdalla?
Salonen kokee, että ohjelmoijilla, järjestelmien suunnittelijoilla ja tilaajilla on henkilökohtainen eettinen vastuu ymmärtää tekoälyn tiedontuotantoa ja arvioida riskejä jokaisessa kehitysvaiheessa.
– Jos tekoälyä käytetään sosiaaliturvan valvonnassa, jokaiselle kansalaiselle on tultava automaattisesti raportti siitä, mitä hänestä on kerätty, miten tietoa on yhdistetty ja miten päätelmiä on tehty.
Kansalaisilla on näkemyksen mukaan siis oikeus korjata virheelliset tiedot.
– Viranomaisen tulee varmistaa, ettei tekoälystä tule näkymätön valvontakoneisto, joka kohdistuu erityisesti kaikkein heikoimmassa asemassa oleviin.





