Kielimallit päättelevät nimestäsi yllättävän paljon
Kokeile huviksesi: kirjoita nimesi juttelevalle tekoälylle ja kysy, mitä se olettaa sinusta. Moni saa vastaukseksi asioita, joita ei koskaan ole kertonut koneelle: sukupuolen, äidinkielen, ehkä hiustenvärin. Osa osuu oikeaan, osa menee pieleen – mutta tunne on sama kuin kuuntelisi tuttua, joka luulee tietävänsä sinusta enemmän kuin haluaisit.
Pitkään olemme tottuneet ajatukseen, että suuret kielimallit – nykyisten tekoälykeskustelijoiden ydin – vain toistavat verkosta oppimiaan muotoja tai kertovat faktoja julkisuuden henkilöistä. Nyt esiin nousee toinen, arkisempi kuva: mallit eivät vain toista, ne myös päättelevät. Ja ne päättelevät yllättävän hyvin tavallisen ihmisen nimestä joukon henkilökohtaisia ominaisuuksia.
Tuore arXiv-työ tuo tähän väitteen tueksi mitattua näyttöä. Tutkijat rakensivat ihmiskeskeisen testausmenetelmän, LMP2:n, jonka ideana on tarkistaa ulkopuolelta – avaamatta mallien sisuskaluja – millaisia ominaisuuksia malli yhdistää tiettyyn nimeen. Tarkasteluun otettiin kahdeksan suurta kielimallia, joista viisi on kaupallisia ohjelmointirajapinnan takana (mukana myös GPT-4o) ja kolme avointa. Lisäksi tehtiin kaksi käyttäjätutkimusta EU:ssa asuvilla ihmisillä: ensin kartoitettiin ihmisten aavistuksia siitä, mitä malli arvaa heistä (155 vastaajaa), sitten reaktioita siihen, mitä malli oikeasti väittää (303 vastaajaa). Menetelmää hiottiin kahdessa pienemmässä esitestissä (20 henkilöä).
Ydinhavainto on kaksiosainen. Ensinnäkin, kun kyse on hyvin tunnetuista ihmisistä, mallit sylkevät ulos kokoelman henkilökohtaisia tietoja luottavaisesti. Tämä ei yllätä – julkisuuden henkilöt ovat verkossa kaikkialla. Toiseksi, ja kiinnostavammin, aivan tavallisten käyttäjien kohdalla ainakin yksi testatuista malleista, GPT-4o, päätyi antamaan yhdentoista ominaisuuden osalta 60 prosenttia tai paremmin osuvia arvauksia. Esimerkkejä näistä ominaisuuksista ovat sukupuoli, hiustenväri ja kielet, joita henkilö puhuu.
Mitä tämä tarkoittaa arjessa? Kuvittele, että malli liittää nimeesi miehen, suomen ja ruskeat hiukset. Tulkinta voi tuntua harmittomalta, mutta se on silti henkilöön yhdistyvää tietoa. Kun tällaisia arvauksia kasaantuu, malli piirtää sinusta profiilin – ei välttämättä oikean, mutta käyttökelpoisen. Profiili voi vaikuttaa siihen, millaisia vastauksia saat, miten sinua puhutellaan tai millaisia ehdotuksia näkyviin nousee. Tutkijat eivät väitä, että mallit kaivaisivat esiin salaisuuksia, vaan että ne osaavat päätellä arkitietoa nimen kaltaisesta vihjeestä paremmin kuin moni on olettanut.
Tässä kohtaa jännite kiristyy. Aiemmin oli helppo ajatella, että yksityisyysongelma syntyy vasta, kun malli toistaa suoraan jostain löydettyjä henkilötietoja. Uusi näyttö viittaa siihen, että pelkkä kyky päätellä – yhdistellä nimi ja sille tyypilliset piirteet – riittää tekemään kysymyksestä monimutkaisemman. Onko malli, joka arvaa oikein äidinkielesi ja hiustenvärisi, käsitellyt henkilötietojasi? Ja jos on, kuka päättää, mitä malli saa sinusta olettaa?
Tutkijat lähestyivät tätä ihmisistä käsin. Kun osallistujille esiteltiin mallien heistä tuottamia väitteitä, enemmistö halusi vaikuttaa niihin: 72 prosenttia kertoi toivovansa kontrollia siitä, mitä malli yhdistää heidän nimeensä. Tämä on merkittävä signaali, vaikka se ei vielä kerro, millaista kontrollia pitäisi tarjota tai kuka sen antaa. Se kuitenkin paljastaa, että käyttäjien kokemus ”tämä tieto on minusta” ulottuu myös mallin tekemiin johtopäätöksiin, ei vain kopiotuiksi tunnistettuihin faktoihin.
On syytä olla tarkkana sanoista. Tutkijat eivät väitä nähneensä mallien koulutusdataa tai paljastaneensa niiden sisäistä logiikkaa. Kyse on niin sanotusta mustan laatikon tarkastuksesta: katsotaan kysymysten ja vastausten kautta, mitä malli käytännössä tekee, ilman että tiedetään miksi. Siksi tuloksia pitää lukea käytännön vaikutusten kautta: mallit tuottavat käyttäjistä pääteltyä tietoa, ja osa siitä osuu riittävän usein oikeaan ollakseen merkityksellistä.
Samalla on paikallaan huomata rajoitukset. Tutkimus kattoi vain kahdeksan mallia, ja tulokset vaihtelivat. Se, että GPT-4o ylsi 11 ominaisuuden kohdalla 60 prosentin tarkkuuteen, ei tarkoita, että näin olisi kaikissa malleissa tai kaikille ihmisille. ”Tavallinen käyttäjä” on lavea kategoria, ja yksittäisen nimen taustalla voi olla harvinaisia piirteitä, joita malli ei arvaa. Osallistujat olivat EU:ssa asuvia, mikä voi vaikuttaa siihen, millaisia nimiä ja kieliä törmää vastaan. Ja ennen kaikkea: 60 prosenttia on kaukana erehtymättömyydestä. Väärät arviot ovat silti tietoa, joka voi vaikuttaa kohteluusi, jos järjestelmä käyttää niitä lähtökohtanaan.
Myöskään se, mitä tarkalleen ottaen pitäisi suojella, ei ole itsestään selvää. Onko hiustenväri henkilötietoa? Entä äidinkieli? Entä nimiin nojaava tilastollinen arvaus? Tutkimus ei vastaa juridisiin kysymyksiin, mutta nostaa ne pöydälle. Tutkijoiden johtopäätöksissä kysytään suoraan, pitäisikö tietosuojaoikeuksien yltää myös tällaisiin mallien tekemiin assosiaatioihin.
Jos jokin käytännön opetus tästä kannattaa ottaa, se on läpinäkyvyyden ja valinnan merkitys. Kun malli päättelee ihmisistä asioita, siitä olisi kerrottava ymmärrettävästi. Olisi myös annettava tapa oikaista ja kiistää – aivan kuten oikaisemme virheitä viranomaisen rekisterissä tai hakukoneen tuloksissa. LMP2:n kaltaiset testit eivät ratkaise ongelmaa, mutta ne antavat ensimmäisen peilin: tällaisena malli sinut näkee.
Tekoäly-yhtiöt vakuuttavat haluavansa tehdä hyödyllisiä, turvallisia ja yksityisyyttä kunnioittavia järjestelmiä. Seuraava askel ei ehkä ole uusi temppu mallissa, vaan uusi sopimus käyttäjän kanssa. Kysymys kuuluu: jos kone tekee sinusta johtopäätöksiä ilman, että olet koskaan sille mitään kertonut, kuka saa päättää, mitä siitä seuraa – ja miten saat äänesi kuuluviin?
Paper: https://arxiv.org/abs/2602.17483v1
Register: https://www.AiFeta.com
tekoäly yksityisyys kielimallit tutkimus data