Rekrytoinnin tekoäly on ketju, jonka saumakohdissa vastuu hämärtyy
Työhönoton automaatio koostuu yhä useammin monesta toisiinsa kytketystä palvelusta. Uusi analyysi varoittaa, että tällainen ketjumaisuus vaikeuttaa vinoumien mittaamista ja vastuun osoittamista – vaikka lait vaativat molempia.
Kuvittele arkinen työnhakutilanne. Hakija klikkaa ”lähetä hakemus”, ja henkilöstöosaston pöydällä näkyy myöhemmin siisti lista ”parhaista” ehdokkaista. Välissä on tapahtunut paljon sellaista, mitä kumpikaan osapuoli ei näe: ansioluettelon muunto koneelliseen muotoon, erillisen mallin tekemä pisteytys, kolmannen yhtiön ylläpitämän alustan suodattimet ja tavat, joilla tietyt kriteerit painavat valinnassa. Kun lopputulos syntyy näin monessa portaassa, kuka on vastuussa, jos järjestelmä suosii systemaattisesti joitain hakijoita toisten kustannuksella?
Viime vuosina on ajateltu, että ongelma ratkeaa, kun ”algoritmi testataan” ja toimijalle asetetaan lakiin vastuu. EU:n tekoälyasetus, New Yorkin paikallislaki 144 ja Coloradon AI-laki ovat esimerkkejä yrityksistä varmistaa, ettei automaatio syrji. Olettamus on ollut selkeä: jos yksittäinen järjestelmä läpäisee puolueettomuustestin ja vastuut kirjataan, ongelma on hallinnassa.
Tuore arXivissa julkaistu analyysi esittää, että tämä lähtökohta on liian yksinkertainen. Rekrytoinnissa käytettävät tekoälyratkaisut eivät ole yksi laatikko vaan toimitusketju – ketju, jossa dataa ja päätöksiä siirretään osasta toiseen. Juuri näissä saumakohdissa vinoumat voivat syntyä tai voimistua, vaikka yksittäinen osa näyttäisi erikseen tarkasteltuna moitteettomalta.
Kirjoittajat käyvät läpi olemassa olevaa tutkimusta ja ajankohtaista sääntelyä ja osoittavat kaksi ongelmaa, jotka seuraavat tästä ketjumaisuudesta:
- Vinouma syntyy usein osien yhteisvaikutuksesta. Yhden komponentin erillistestaus ei paljasta, mitä tapahtuu, kun se yhdistetään toisiin osiin tietyillä asetuksilla.
- Tiedon epäsuhta hämärtää vastuun. Yritys, joka käyttää ulkoista palvelua rekrytointiin, kantaa usein juridisen vastuun, mutta ei näe toimittajan mallien sisään. Toimittaja puolestaan hallitsee toteutusta, mutta ei välttämättä joudu avaamaan sitä merkityksellisellä tavalla.
Konkreettinen esimerkki auttaa hahmottamaan ongelman. Ansioluetteloiden ”parseri” – ohjelma, joka muuntaa CV:t yhtenäiseen muotoon – voi testissä näyttää kohtelevan eri hakijaryhmiä tasapuolisesti. Kun samaa dataa seuraavaksi pisteyttää erillinen malli, ja päälle asetetaan suodatin, joka päästää jatkoon vain tietyn pistemäärän ylittäneet, lopputulos voi kallistua. Yksittäinen osa ei ole ”syrjivä”, mutta niiden yhteinen logiikka tuottaa epätasapainoa. Mitä korkeammalle kynnystä nostetaan, sitä enemmän pienetkin erot kasautuvat.
Analyysin mukaan juuri tällaiset yhteisvaikutukset jäävät sääntelyn ja yritysten omien tarkastusten katveeseen. Rekrytoinnin palvelut kootaan usein useilta toimijoilta: datantoimittajilta, mallien kehittäjiltä, alustayhtiöiltä ja lopulta työnantajalta, joka ottaa järjestelmän käyttöön. Jokainen osapuoli voi vilpittömästi uskoa täyttävänsä velvoitteet, mutta koottu kokonaisuus käyttäytyy toisin kuin kukaan on erikseen arvioinut.
Tässä valossa myös vastuunjako näyttää ongelmalliselta. Lait korostavat usein käyttöönottajan velvollisuuksia, mutta käytännössä juuri hänellä on heikoin näkyvyys ketjun sisään. Toimittajilla taas on valtaa teknisiin valintoihin – asetuksiin, päivityksiin ja oletusarvoihin – joilla on suuri merkitys lopputulokseen. Ilman velvoittavaa dokumentointia ja läpinäkyvyyttä kukaan ei näe koko polkua datasta päätökseen.
Mitä sitten pitäisi tehdä? Kirjoittajat hahmottavat useamman tason ratkaisuja. Ensinnäkin tarkastelun pitäisi kohdistua järjestelmään kokonaisuutena, ei vain yksittäisiin komponentteihin. Tämä tarkoittaa käytännössä järjestelmätason auditointeja, joissa testataan se, mitä käyttäjä ja hakija todella kokevat. Toiseksi toimittajille tarvitaan selkeät ohjeet ja velvoitteet siitä, mitä tietoa on jaettava ketjun seuraavalle portaalle. Kolmanneksi jatkuva seuranta on tärkeää: järjestelmät ja datavirrat muuttuvat, joten myös mittaamisen on oltava toistuvaa, ei kertaluonteista. Neljänneksi ketjun läpi kulkeva dokumentaatio on välttämätöntä, jotta päätöspolku voidaan jälkikäteen ymmärtää ja arvioida.
On silti syytä olla tarkkana siinä, mitä tästä voi päätellä. Kyse ei ole kenttäkokeesta yksittäisestä yrityksestä, vaan kirjallisuuteen ja sääntelyn analyysiin pohjaavasta jäsennyksestä. Se tekee näkyväksi ongelman, jota monessa organisaatiossa aavistellaan, mutta jota on vaikea todentaa suljettujen järjestelmien takia. Siksi analyysi ei anna nopeaa mittaria, jolla jokainen rekrytointikone voitaisiin ”todistaa” vinoumattomaksi – eikä se väitäkään niin. Se esittää periaatteita, joiden toimeenpano vaatii sopimuksia, käytännön työkaluja ja todennäköisesti myös uusia valvontatapoja.
Rajoituksia on muitakin. Jos toimittajat eivät jaa olennaista tietoa tai jos ketju muuttuu jatkuvasti, järjestelmätason arviointi jää helposti näennäiseksi. Lisäksi sääntely vaihtelee alueittain, mikä voi kannustaa yhtiöitä valitsemaan heikoimman lenkin mukaan. Silti suunta on selvä: ilman ketjumaisen todellisuuden tunnistamista sekä lainvalvojien että yritysten omat tarkastukset voivat jäädä kauniiksi paperiksi.
Rekrytoinnin automaatio ei todennäköisesti katoa – eikä sen tarvitsekaan. Kysymys kuuluu, opimmeko katsomaan päätöstä ketjuna, jossa jokainen lenkki ja niiden välinen liitos on arvioitava. Pitäisikö tekoälyn toimitusketju dokumentoida ja auditoida yhtä järjestelmällisesti kuin talous tai tuoteturvallisuus – ja jos kyllä, kuka saa jaetun järjestelmän äärelle tarvittavan näkyvyyden?
Paper: https://arxiv.org/abs/2604.22679v1
Register: https://www.AiFeta.com
tekoäly rekrytointi vinouma vastuu sääntely toimitusketju