Maaliskuussa 2023 tuhannet tekoäly- ja teknologia-alan asiantuntijat vaativat avoimessa kirjeessään vähintään puolen vuoden taukoa tekoälyn kehittämisestä. Kirjeessä vaadittiin, että tämä aika tulisi käyttää uusien turvajärjestelmien kehittämiseen tekoälyn riskien minimoimiseksi. Millaisia riskejä tekoälyn käytöstä seuraa ihmisoikeuksien toteutumiselle?
Euroopan unionin tekoälyasetus lukee tekoälyjärjestelmiksi niin yksinkertaiset sääntöpohjaiset järjestelmät kuin monimutkaiset koneoppivat järjestelmät. Määritelmä kattaa muun muassa sähköpostien roskapostisuodattimet ja chatbotit – siis asioita, joiden käyttäminen on monelle täysin arkipäiväistä. Miksi tekoäly- ja teknologia-asiantuntijat sitten ovat huolissaan tekoälyn nopeasta kehityksestä?
Yksi syy on se, ettei tekoälyä ja sen käyttöä tällä hetkellä juurikaan säännellä.
Euroopan unionissa on ollut jo vuodesta 2019 kehitteillä tekoälyä sääntelevä kokonaisuus, tekoälyasetus. Kyseessä on maailman ensimmäinen tekoälyä sääntelevä laaja sääntelykehikko. Asetukseen liittyvä EU-parlamentin neuvottelupositio hyväksyttiin kesäkuussa 2023, ja seuraavaksi asetusluonnosta muotoillaan syksyllä alkavissa kolmikantaneuvotteluissa ennen lopullista hyväksymistä.
Lainsäädännön muotoilu on lähes aina hidasta, mutta erityisen hitaalta se tuntuu, kun toiveena on saada jonkinlaista turvakehikkoa tekoälylle. Kankea lainsäädäntö ei pysy mukana kehityksessä.
Ihminen luo tekoälyn algoritmit
Tekoälyssä ei ole kyse siitä, että jokin kone pystyisi toimimaan tai ajattelemaan kuin ihminen. Tekoäly pohjaa algoritmeihin, eli sääntöihin, joita ihminen syöttää ohjelmistoon ja joiden perusteella tekoäly toimii.
Tekoäly ujuttautuu pikkuhiljaa enemmän ja enemmän niin yksityisten kuin julkistenkin palveluntarjoajin tuottamiin palveluihin. Tekoälyä hyödynnetään esimerkiksi Kelan palveluissa, joissa esimerkiksi opintoetuuspäätöksiä tehdään automaattisesti. Vakuutusyhtiöissä korvausta hakevalta saatetaan kysyä, haluatko nopeuttaa hakemuksesi käsittelyä automaattisen päätöksenteon avulla. Poliisilla on työssään käytössä kasvojentunnistusjärjestelmä. Monet käyttävät tekoälyä töidensä tehostamiseen ja esimerkiksi ChatGPT:n avulla voi luoda sekunneissa esimerkiksi yksityiskohtaisen matkasuunnitelman.
Hyvä renki, huono isäntä
Tekoälystä voi olla yhteiskunnalle valtavia hyötyjä – resurssipulassa sen voi valjastaa tehtäviin, joiden tekemiseen ihmiseltä menisi tuntikausia. Hyödyissä piilee myös vaaroja, sillä jo nyt on tiedossa tapauksia, jossa ihminen ei pysy mukana tekoälyn toteuttamissa päättelyketjuissa. Aina ei siis tiedetä täysin, miten tekoäly päätyy ratkaisuihinsa.
Ongelmallista tästä tekee se, että päättelyketjuun voi piiloutua virheitä, yleistyksiä tai muita vinoumia, jotka voivat johtaa vääristyneisiin tuloksiin. Yleinen perustelu automaation käytölle päätöksenteossa on sinänsä ylevä ajatus, että ihmisen ennakkoluulojen ja rakenteellisen rasismin värittämät päätökset vähenevät, koska kone ei ole ihminen. On kuitenkin muistettava, että tekoäly pohjaa päätöksensä nimenomaan ihmisten sille syöttämiin algoritmeihin ja ihmisten keräämään dataan. Tekoäly ei siis koskaan voi olla täysin neutraalia.
Sääntelykehikko ei suojaa syrjinnältä tarpeeksi tehokkaasti
Julkisen hallinnon automaattiselle päätöksenteolle luotiin kansallinen sääntelykehikko, kun sitä sääntelevä kokonaisuus tuli voimaan toukokuussa 2023. Siitä huolimatta automaattiseen ja osittain automaattiseen päätöksentekoon liittyy ongelmia.
Päätöksenteon kohteena oleva henkilö saattaa antaa suostumuksensa automaation käyttöön itseään koskevassa päätöksenteossa ilman, että aidosti ymmärtää, mistä on kyse. Näin voi käydä, jos tietoa ei tarjota tarpeeksi selkeällä tavalla ja saavutettavasti, tai kieltäytymiselle ei anneta aitoa mahdollisuutta.
Toinen merkittävä ongelma on automaatioharha. Tutkimustiedon valossa ihminen luottaa melko sokeasti teknologiaan. Kun tekoälyteknologia tuottaa päätösehdotuksen, päätöksiä valvova ihminen todennäköisesti hyväksyy ehdotuksen asiaa juurikaan kyseenalaistamatta. Jos automaattisen päätöksenteon seurantaa ei tehdä riittävällä tavalla, julkisen hallinnon päätöksentekovallan automatisointi voi olla vaarallista. Siksi esimerkiksi hallitusohjelmakirjaus Maahanmuuttoviraston osittaisen automaation lisäämisestä ja jopa täyden automaation hyödyntämisestä ei ole kestävä ilman, että sen toteuttamisen myötä päätöksenteon oikeellisuutta avataan julkisesti arvioitavaksi.
Suomessa esimerkiksi poliisi käyttää tekoälyä Kastu-järjestelmässä. Kastu-järjestelmässä on kyse kasvojentunnistuksesta, jossa kasvokuvaa verrataan laajaan tietokantaan. Sinänsä järkevän kuuloinen järjestelmä saattaa sisältää ongelmia, jotka asettavat ihmiset eriarvoiseen asemaan. Koska valkoiset miehet ovat yliedustettuja tekoälylle syötetyssä datassa, rodullistettujen ihmisten ja naisten tunnistaminen tekoälyn avulla on epätarkempaa. Tämä voi johtaa tilanteisiin, jos tekoäly tunnistaa kuvasta väärän henkilön ja henkilö joutuu väärän epäilyn kohteeksi. Suomen poliisi on kertonut varmistavansa Kastun tulokset siten, että ihminen tarkistaa aina haun tulokset. Ihminen kuitenkin luottaa usein liikaa koneeseen ja saattaa kritiikittä hyväksyä sen tuottamat tulokset.
Vaikutusarviointia vaaditaan
Tekoälyteknologiat kehittyvät ja niiden käyttöä lisätään jatkuvasti – myös Suomessa. Ihmisoikeuksien kannalta puutteita kuitenkin löytyy esimerkiksi teknologioita työssään käyttävien ohjeistuksessa ja koulutuksessa sekä ihmisoikeusvaikutusten arvioinnissa ja seurannassa.
Valtion tehtävä on turvata jokaisen ihmisoikeuksien toteutuminen ja siksi myös tekoälyn käytön ihmisoikeusvaikutuksiin on suhtauduttava vakavasti. On vaarallista käyttää potentiaalisesti vinoutunutta tekoälyä palveluiden tehostamiseen ilman riittävää seurantaa ja arviointia sen vaikutuksista.
Hei vielä! Kun nyt olet täällä…
… niin uskomme, että välität ihmisoikeuksista kaikille, kaikkialla maailmassa. Tiesitkö, että Amnestyn työ perustuu juuri sinunkaltaistesi välittävien ihmisten tukeen? Olemme riippumaton toimija, joka ei ota vastaan julkista rahoitusta. Mutta riippumattomuutemme on mahdollista säilyttää vain yksityishenkilöiden tuen voimalla.
Työmme on tehokasta. Lahjoittajiemme ansiosta vapautamme satoja vääryydellä vangittuja ihmisiä, painostamme hallituksia muuttamaan syrjiviä lakeja paremmiksi, estämme teloituksia ja pelastamme ihmishenkiä. Lahjoittajien avulla asiantuntijamme pystyvät tutkimaan ja paljastamaan ihmisoikeusloukkauksia. Tuomme vääryyksiä julki ja vaadimme päättäjiä korjaamaan ne.
Tämä kaikki on mahdollista, mutta vain sinun avullasi. Yhdessä voimme lopettaa kidutuksen, sorron ja syrjinnän, auttaa pahoinpideltyjä naisia, sekä tarjota paremman tulevaisuuden sotaa ja tuhoa pakeneville ihmisille.
Siksi kysymme: tekisitkö lahjoituksen sinulle sopivalla summalla? Jokainen lahjoitus on tärkeä. Tue nyt ihmisoikeuksia Suomessa ja kaikkialla maailmassa ja lahjoita!