Kaksi tekoälyä voi olla reilumpi kuin yksi
Tutkijoiden simuloimassa päivystyksessä oikeudenmukaisuus syntyi neuvottelusta, ei yhdestä auktoriteetista. Se haastaa tavan, jolla tekoälyä on tähän asti arvioitu ja säädelty.
Kuvittele ruuhkainen päivystysilta: paikkoja on liian vähän, potilaita liikaa. Yhden älykkään järjestelmän sijaan päätöksiä valmistelee kaksi tekoälyä. Ne käyvät muutaman kierroksen keskustelun siitä, kenelle hoito kuuluu ensin ja millä perusteilla. Lopputulos ei synny yksittäisen koneen varmuudesta vaan väännöstä, jossa erilaiset periaatteet punnitsevat toisiaan.
Tähän asti tekoälyn oikeudenmukaisuutta on useimmiten ajateltu yksittäisen mallin ominaisuutena. Mallin vinoumia mitataan ja säädetään – aivan kuin yhden lääkärin harkintakykyä yritettäisiin jalostaa yhä paremmaksi. ArXiv-palvelussa julkaistu tutkimus ehdottaa toisenlaista lähtökohtaa: ehkä reiluus ei ole yhden järjestelmän sisäinen laatu, vaan syntyy prosessista, jossa useat tekoälyt keskustelevat ja kiistelevät.
Todisteeksi tekijät rakensivat hallitun koejärjestelyn, jossa kahden tekoälyn piti jakaa niukkoja hoitoresursseja sairaalan triagetilanteessa. Tekoälyt neuvottelivat kolmessa selkeästi rajatussa kierroksessa. Toiselle niistä annettiin selkeä eettinen kompassi: sitä ohjattiin lukemaan ja seuraamaan ennalta valittua eettistä aineistoa. Toista ei ohjattu ollenkaan tai sille annettiin jopa tehtäväksi suosia tiettyjä väestöryhmiä potilaiden todellisen hoitotarpeen sijaan.
Havainto oli yllättävä mutta selkeä. Kumpikaan tekoäly ei yksin tehnyt eettisesti tyydyttäviä jakopäätöksiä – ei edes se, jota oli ohjattu eettisillä teksteillä. Silti niiden yhteinen, neuvoteltu lopputulos saattoi täyttää sellaisia reiluuskriteerejä, joihin kumpikaan ei yksin yltänyt. Eettisesti ankkuroitu järjestelmä ei jyrännyt vastapuoltaan, vaan toimi pikemminkin vastavoimana, joka veti keskustelua kohti kohtuullisempaa suuntaa. Tekijöiden sanoin se toimi eräänlaisena korjauspaikkana: se pystyi palauttamaan pääsyn hoitoon sellaisille ryhmille, jotka toisen tekoälyn lähtökohtainen suosinta olisi sivuuttanut – kuitenkaan täysin muuttamatta toisen tekoälyn perusasetusta.
Tämä on helpointa nähdä arkisena esimerkkinä, ilman kaavoja tai koodeja. Jos toinen tekoäly lähtee liikkeelle ajatuksesta, että tietyn ryhmän potilaat ovat aina etusijalla, se ohittaisi vakavasti sairaan, joka ei satu kuulumaan suosittuun ryhmään. Kun rinnalle tuodaan tekoäly, joka vetoaa periaatteisiin potilaiden tarpeen ja yhdenvertaisen kohtelun puolesta, lopullinen kiintiö voi liukua niin, että pahimmin syrjään jäämisen riski pienenee. Taipuma ei katoa, mutta sen vaikutus heikkenee.
Samalla tutkijat havaitsivat jotakin vähemmän imartelevaa: jopa erikseen ohjeistetut tekoälyt kallistuivat tiettyjen eettisten suuntausten puoleen. Tämä on heidän mukaansa linjassa laajempien havaintojen kanssa, joiden mukaan suuret kielimallit ovat monissa tapauksissa ”vasemmalle kallellaan”. Toisin sanoen edes ”tasapainottajaksi” koulittu tekoäly ei ole täysin neutraali.
Näiden tulosten taustalla on vanha taloustieteen paradoksi. Arrow’n mahdottomuusteoreema osoitti jo 1950-luvulla, ettei ole olemassa sellaista äänestyssääntöä, joka muuttaisi yksilölliset mieltymykset yhteiseksi päätökseksi täyttäen samalla kaikki järkevinä pidetyt reiluuden ehdot. Tutkimus ei väitä ratkaisevansa tätä ristiriitaa. Sen mukaan monen tekoälyn väittely suunnistaa sen rajoissa: se ei tee mahdottomasta mahdollista, mutta voi löytää käytännöllisiä kompromisseja eri tavoitteiden – tarpeen, yhdenvertaisuuden ja ryhmätason oikeuksien – välillä.
Miksi tällä on väliä? Koska tekoäly on nopeasti muuttumassa yksittäisistä malleista järjestelmiksi, joissa useat ohjelmalliset ”toimijat” keskustelevat, neuvottelevat ja korjaavat toisiaan. Jos reiluus todella nousee vuorovaikutuksesta, arvioinnin ja sääntelyn pitäisi siirtää katse yksittäisestä mallista koko järjestelmään: miten eri osat on ohjeistettu, kenen teksteihin ne nojaavat ja millaisin säännöin ne käyvät väittelyä.
Tutkimus kannattaa lukea todisteena mahdollisuudesta, ei takeena. Koe tehtiin simuloidussa triage-ympäristössä, ei oikeissa sairaaloissa. Neuvottelu oli rajattu kolmeen kierrokseen, ja eettinen ohjaus perustui etukäteen valittuun aineistoon. Myös se, mitä ”reiluudella” tarkoitettiin, oli määritelty etukäteen valituilla kriteereillä. Tekijät eivät väitä, että lähestymistapa poistaisi teknisen ja eettisen päätöksenteon perusjännitteet – he jopa korostavat, että kaikkia toivottuja reiluusehtoja ei voida täyttää yhtä aikaa.
Silti tulos on tärkeä muistutus suunnasta, johon tekoäly on menossa. Kun päätöksiä tekevät yhä useammin järjestelmät, joissa useampi koneellinen ääni kiistää toisensa kanssa, oikeudenmukaisuus voi olla vähemmän yhden asiantuntijan ”hyvyyttä” ja enemmän avoimen menettelyn laatua: kuka pääsee ääneen, millä perusteilla ja miten erimielisyydet ratkaistaan.
Tämä asettaa myös käytännön kysymyksiä. Jos oikeudenmukaisuus syntyy menettelystä, pitäisikö meidän säätää ennen kaikkea keskustelun säännöistä – siitä, mistä teksteistä tekoälyt ammentavat, kuka määrittelee periaatteet ja miten lopputuloksia auditoidaan? Kun tekoälyt keskustelevat keskenään, kenen ääntä ne viime kädessä kantavat – ja kuka vastaa, jos vaaka kallistuu väärään suuntaan?
Paper: https://arxiv.org/abs/2604.13705v1
Register: https://www.AiFeta.com
tekoäly oikeudenmukaisuus päätöksenteko terveydenhuolto etiikka