Nopeasti kehittyvä tekoäly ja teknologia luovat maaperän rasismille ja syrjinnälle sekä disinformaation leviämiselle. Tekoälyn ja teknologioiden käytön ihmisoikeusvaikutuksiin on suhtauduttava vakavasti.
Amnesty varoittaa tuoreessa vuosiraportissaan tekoälyn käytön ihmisoikeusvaikutuksista. Amnesty arvioi raportissa ihmisoikeuksien toteutumista maailmassa vuonna 2023. Teknologiaa ja tekoälyä on käytetty syrjinnän vahvistamiseen, disinformaation levittämiseen sekä marginalisoituja yhteisöjä vastaan.
Amnestyn raportti osoittaa, että poliittiset toimijat eri puolilla maailmaa hyökkäävät yhä enemmän naisia, sateenkaari-ihmisiä ja marginalisoituja yhteisöjä vastaan teknologian ja tekoälyn avulla. Big Techin liiketoimintamalli on omiaan vihan levittämiseen. Big Techillä tarkoitetaan suurimpia teknologiayhtiöitä, joihin lukeutuvat muun muassa Meta, Google, Amazon, Apple ja Microsoft.
Tekoälyn nopea kehitys ja suurten teknologiayritysten hallitseva asema uhkaavat lisätä ihmisoikeusloukkauksia, jos niihin kohdistuvaa sääntelyä ei saada ajan tasalle. Tämä on uhka erityisesti tänä vuonna, kun eri puolilla maailmaa käydään merkittäviä vaaleja. Valtiot eivät ole ryhtyneet riittäviin toimiin säännelläkseen tekoälyn ja teknologioiden käyttöä ja hillitäkseen maailmanlaajuista vakoiluohjelmien kauppaa tai Big Tech -yhtiöiden valvontaan perustuvaa liiketoimintamallia.
Teknologioiden käytöllä suhteeton vaikutus marginalisoituihin yhteisöihin
Useat valtiot, kuten Argentiina, Brasilia, Intia ja Yhdistynyt kuningaskunta, ovat käyttäneet kasvojentunnistusteknologiaa yhä useammin mielenosoitusten ja urheilutapahtumien valvomiseen. Kasvojentunnistusteknologiaa käytettiin myös marginalisoitujen yhteisöjen, etenkin rodullistettujen ihmisten sekä maahanmuuttajien ja pakolaisten, syrjintään. Esimerkiksi New Yorkin poliisilaitos paljasti vuonna 2023 käyttäneensä teknologiaa Black Lives Matter –mielenosoitusten valvontaan. Israel taas on käyttänyt kasvojentunnistusteknologiaa miehitetyllä Länsirannalla rajoittaakseen palestiinalaisten liikkumisvapautta ja ylläpitääkseen apartheid-järjestelmäänsä.
Serbiassa osin automatisoidun sosiaaliturvajärjestelmän käyttöönotto johti siihen, että tuhannet ihmiset menettivät pääsyn elintärkeään etuuteen. Vaikutukset kohdistuivat erityisesti romaniyhteisöihin ja vammaisiin ihmisiin. Tämä osoittaa, miten hallitsematon automatisointi voi pahentaa eriarvoisuutta ja vaikuttaa erityisesti haavoittuvassa asemassa oleviin ihmisryhmiin.
Miljoonat ihmiset joutuvat pakenemaan konflikteja eri puolilla maailmaa. Maahanmuuton hallinnoinnissa ja rajavalvonnassa on turvauduttu teknologioihin, jotka voivat aiheuttaa ihmisoikeusloukkauksia, kuten digitaalisiin vaihtoehtoihin säilöönotolle, biometriikkaan ja algoritmisiin päätöksentekojärjestelmiin. Amnesty arvioi raportissaan, että näiden teknologioiden yleistyminen ylläpitää ja vahvistaa rodullistettuihin ihmisryhmiin kohdistuvaa syrjintää, rasismia sekä suhteetonta ja laitonta valvontaa.
Myös Suomessa useat viranomaiset hyödyntävät jo tekoälyä ja muuta teknologiaa. Esimerkiksi itärajalle rakennettava aita tulee moninkertaistamaan valvontateknologian määrän itärajalla ja poliisilla on käytössään kasvojentunnistusjärjestelmä.
Teknologioihin liittyvät ongelmat kärjistyvät merkittävänä vaalivuotena
Amnesty arvioi raportissaan, että teknologioiden ja tekoälyn käyttöön liittyvät ongelmat tulevat kärjistymään tänä vuonna, kun eri puolilla maailmaa käydään useita merkittäviä vaaleja. Suurten sosiaalisen median alustojen, kuten Facebookin, Instagramin, TikTokin ja YouTuben liiketoimintamalli perustuu valvontaan, mikä voi toimia vaalien yhteydessä katalysaattorina ihmisoikeusloukkauksille. Olemme jo nähneet kuinka viha, syrjintä ja disinformaatio vahvistuvat ja leviävät sosiaalisessa mediassa algoritmien avulla.
Yhdysvalloissa suunnataan kohti marraskuussa järjestettäviä presidentinvaaleja. Samaan aikaan marginalisoituihin yhteisöihin, erityisesti sateenkaari-ihmisiin, kohdistuva häirintä ja viha on lisääntynyt sosiaalisessa mediassa. Myös abortinvastainen uhkaava sisältö on yleistynyt.
Intiassa noin miljardi ihmistä äänestää tänä vuonna vaaleissa, joita varjostavat hyökkäykset rauhanomaisia mielenosoittajia vastaan ja uskonnollisiin vähemmistöihin kohdistuva järjestelmällinen syrjintä. Vuonna 2023 Amnesty International paljasti, että Intia oli käyttänyt Pegasus-vakoiluohjelmaa tunnettujen intialaisten toimittajien vakoilemiseen.
Sääntely on välttämätöntä
Viime vuoden aikana tekoälyn nopea kehitys on muuttanut teknologioiden, kuten vakoiluohjelmien, päätöksenteon automatisoinnin ja sosiaalisen median algoritmien aiheuttaman uhan laajuutta. Vaikka tekoälyn ja muun teknologian kehitys on ollut nopeaa, sääntely on edennyt hitaasti.
Hallitusten tulisi ryhtyä vankkoihin lainsäädäntö- ja sääntelytoimiin, joilla puututaan tekoälyteknologioiden aiheuttamiin riskeihin ja haittoihin. Niiden myös olisi hillittävä Big Tech -yhtiöitä, erityisesti puuttumalla niiden valvontaan perustuvan liiketoimintamallin aiheuttamiin haittoihin.
Hei vielä! Kun nyt olet täällä…
… niin uskomme, että välität ihmisoikeuksista kaikille, kaikkialla maailmassa. Tiesitkö, että Amnestyn työ perustuu juuri sinunkaltaistesi välittävien ihmisten tukeen? Olemme riippumaton toimija, joka ei ota vastaan julkista rahoitusta. Mutta riippumattomuutemme on mahdollista säilyttää vain yksityishenkilöiden tuen voimalla.
Työmme on tehokasta. Lahjoittajiemme ansiosta vapautamme satoja vääryydellä vangittuja ihmisiä, painostamme hallituksia muuttamaan syrjiviä lakeja paremmiksi, estämme teloituksia ja pelastamme ihmishenkiä. Lahjoittajien avulla asiantuntijamme pystyvät tutkimaan ja paljastamaan ihmisoikeusloukkauksia. Tuomme vääryyksiä julki ja vaadimme päättäjiä korjaamaan ne.
Tämä kaikki on mahdollista, mutta vain sinun avullasi. Yhdessä voimme lopettaa kidutuksen, sorron ja syrjinnän, auttaa pahoinpideltyjä naisia, sekä tarjota paremman tulevaisuuden sotaa ja tuhoa pakeneville ihmisille.
Siksi kysymme: tekisitkö lahjoituksen sinulle sopivalla summalla? Jokainen lahjoitus on tärkeä. Tue nyt ihmisoikeuksia Suomessa ja kaikkialla maailmassa ja lahjoita!