Epävarmuus voi olla algoritmisen epäreiluuden varsinainen moottori
Kuvitellaan lainahakemus, joka hylätään. Hakijalle päätös on piste. Pankin tietokoneelle se on myös piste – mutta väärässä kohdassa: kukaan ei tule koskaan tietämään, olisiko hylätty hakija maksanut lainansa moitteetta takaisin. Se tieto jäi syntymättä.
Usein puhumme tekoälyn reiluudesta kuin vaakakupista: pitääkö virheet jakautua tasan eri ryhmien välillä, tai pitääkö hyväksymisrajat olla samat kaikille? Tuore tutkimus ehdottaa kääntämään katseen toisaalle. Osa epäreiluudesta ei synny siitä, mitä malli ajattelee meistä, vaan siitä, mitä se ei voi tietää. Ja tuo tietämättömyys ei jakaudu tasaisesti.
Arjen päätöksiä – lainoista työhakemuksiin ja julkisten palvelujen kohdentamiseen – tehdään yhä useammin sarjana. Jokainen päätös ruokkii seuraavaa: malli oppii aiemmista valinnoista ja niiden seurauksista. Ongelmana on, että oppiminen tapahtuu vajavaisesta näkymästä. Emme näe vaihtoehtoista todellisuutta, jossa hylätty sai lainan tai ohitettu hakija pääsi haastatteluun. Emme myöskään näe kaikkia ryhmiä yhtä kirkkaasti, jos heistä on kertynyt vähemmän tietoa historiallisen sivuunjäämisen takia.
ArXivissa julkaistu artikkeli kokoaa tämän ongelmakentän yhteen ja antaa sille yhteiset nimet. Se esittelee luokittelun kolmesta epävarmuuden muodosta sarjapäätöksissä: mallin epävarmuus (emmekö edes tiedä, millainen maailma on), palautteen epävarmuus (näemmekö vain ne seuraukset, jotka päätimme synnyttää) ja ennusteen epävarmuus (onko meillä ylipäätään riittävästi vertailukelpoista tietoa tämän ihmisen kaltaisista tapauksista). Tutkijat muotoilevat näitä ilmiöitä niin sanottujen vastatodellisuuksien – ”mitä olisi tapahtunut jos” – ja oppivien päätösprosessien näkökulmasta ja näyttävät, miten ylenkatsottu epävarmuus voi vahingoittaa sekä päätösten kohteita että päätöksentekijää itseään.
Palataan pankkiin. Jos järjestelmä hylkää epävarmat hakemukset järjestelmällisemmin tietyltä ryhmältä, se ei koskaan opi, miten moni heistä olisi maksanut lainan. Hylkäysten seurauksena tiedon puute syvenee juuri siellä, missä sitä oli alun perinkin vähemmän. Hakijoille tämä tarkoittaa kasaantuvaa sivuun jäämistä ja supistuvaa pääsyä resurssien äärelle. Pankille se voi tarkoittaa menetettyjä tuottoja: järjestelmä karttaa riskiä sieltä, missä tuottoja olisi ollut, koska se ei ole vaivautunut ottamaan selvää.
Artikkelin kokeelliset esimerkit – simuloiduilla aineistoilla – näyttävät, että toisenlainen toimintatapa on mahdollinen. Kun järjestelmä ottaa epävarmuuden vakavasti ja uskaltaa ajoittain ”kurkistaa” huonosti tunnettuun osaan hakijoita, lopputulosten vaihtelu heikommassa asemassa oleville ryhmille voi pienentyä ilman, että organisaation kokonaistavoitteista tarvitsee tinkiä. Kyse ei ole hyväntekeväisyydestä vaan paremmasta tiedonkeruusta: jos ette koskaan testaa, ette koskaan tiedä.
Tämä haastaa aiemman reiluusajattelun, joka on pitkälti keskittynyt yksittäisen ennusteen oikeudenmukaisuuteen: pitääkö virheet tasata, pitäisikö eri ryhmille asettaa erilaiset kynnykset? Tutkimuksen viesti on, että sarjapäätöksissä on ensin kysyttävä, kenestä meillä on tietoa, miten tieto kertyy – ja kenestä sitä ei kerry. Jos epävarmuus on epätasaista, myös näennäisesti neutraalit säännöt vahvistavat vinoumia.
Tutkimus tekee näkyviksi myös kaksi erilaista haittaa. Päätösten kohteille haitta on ilmeinen: poisjäänyt pääsy palveluihin tai mahdollisuuksiin, joka lisäksi kasautuu ajan myötä. Päätöksentekijälle haitta on vähemmän puhuttu: menetetyt hyödyt ja tarpeeton riskinkarttaminen, koska järjestelmä ei koskaan oppinut, missä riski palkitsee. Nämä kaksi haittaa kytkeytyvät juuri siihen, mitä ei nähty – toteutumattomiin vaihtoehtoihin ja puuttuviin havaintoihin.
Kuitenkin on syytä säilyttää maltti. Tekijät korostavat, että algoritmeilla ei korjata rakenteellista eriarvoisuutta. Tarvitaan hallintaa ja yhteiskunnallisia ratkaisuja; tekninen lähestymistapa voi korkeintaan tukea niitä, tekemällä näkyväksi vinoumia ja vaihtoehtoja. Lisäksi tutkimuksen kokeet perustuvat simuloituihin aineistoihin: ne näyttävät, mitä voi tapahtua, eivät mitä välttämättä tapahtuu todellisissa pankeissa tai virastoissa. Ja kun järjestelmä alkaa tutkia epävarmoja tapauksia aktiivisemmin, myös mittarit, joilla reiluutta mitataan, voivat muuttua – mikä vaatii harkintaa ja läpinäkyvyyttä.
Silti yksi periaate jää: jos epävarmuus itsessään synnyttää epäreiluutta, sitä ei voi sivuuttaa meluna. Reiluus ei ole vain jakokysymys, se on myös tiedonkysymys. Kuka pääsee osaksi oppimista, kuka jää sen ulkopuolelle, ja millä ehdoin järjestelmä hankkii puuttuvan tiedon?
Tämän ristiriidan kohdalla punnitaan myös instituutioiden tahtoa. Ovatko pankit, työnantajat ja viranomaiset valmiita tietoisesti etsimään tietoa juuri sieltä, missä sitä on vähiten – ja tekemään sen hallitusti ja läpinäkyvästi? Jos vastaus on kyllä, epäreiluuden perinteiset korjausliikkeet saavat rinnalleen uuden työkalun: epävarmuuden tasaamisen. Jos vastaus on ei, olemme takaisin lähtöruudussa, arvaamassa yhä uudelleen niiden puolesta, joita emme koskaan päästäneet mukaan kokeeseen.
Paper: https://arxiv.org/abs/2604.21711v1
Register: https://www.AiFeta.com
tekoäly oikeudenmukaisuus algoritmit epävarmuus päätöksenteko tutkimus