Kielimallit päättelevät nimestäsi yllättävän paljon

Kielimallit päättelevät nimestäsi yllättävän paljon

Kokeile huviksesi: kirjoita nimesi juttelevalle tekoälylle ja kysy, mitä se olettaa sinusta. Moni saa vastaukseksi asioita, joita ei koskaan ole kertonut koneelle: sukupuolen, äidinkielen, ehkä hiustenvärin. Osa osuu oikeaan, osa menee pieleen – mutta tunne on sama kuin kuuntelisi tuttua, joka luulee tietävänsä sinusta enemmän kuin haluaisit.

Pitkään olemme tottuneet ajatukseen, että suuret kielimallit – nykyisten tekoälykeskustelijoiden ydin – vain toistavat verkosta oppimiaan muotoja tai kertovat faktoja julkisuuden henkilöistä. Nyt esiin nousee toinen, arkisempi kuva: mallit eivät vain toista, ne myös päättelevät. Ja ne päättelevät yllättävän hyvin tavallisen ihmisen nimestä joukon henkilökohtaisia ominaisuuksia.

Tuore arXiv-työ tuo tähän väitteen tueksi mitattua näyttöä. Tutkijat rakensivat ihmiskeskeisen testausmenetelmän, LMP2:n, jonka ideana on tarkistaa ulkopuolelta – avaamatta mallien sisuskaluja – millaisia ominaisuuksia malli yhdistää tiettyyn nimeen. Tarkasteluun otettiin kahdeksan suurta kielimallia, joista viisi on kaupallisia ohjelmointirajapinnan takana (mukana myös GPT-4o) ja kolme avointa. Lisäksi tehtiin kaksi käyttäjätutkimusta EU:ssa asuvilla ihmisillä: ensin kartoitettiin ihmisten aavistuksia siitä, mitä malli arvaa heistä (155 vastaajaa), sitten reaktioita siihen, mitä malli oikeasti väittää (303 vastaajaa). Menetelmää hiottiin kahdessa pienemmässä esitestissä (20 henkilöä).

Ydinhavainto on kaksiosainen. Ensinnäkin, kun kyse on hyvin tunnetuista ihmisistä, mallit sylkevät ulos kokoelman henkilökohtaisia tietoja luottavaisesti. Tämä ei yllätä – julkisuuden henkilöt ovat verkossa kaikkialla. Toiseksi, ja kiinnostavammin, aivan tavallisten käyttäjien kohdalla ainakin yksi testatuista malleista, GPT-4o, päätyi antamaan yhdentoista ominaisuuden osalta 60 prosenttia tai paremmin osuvia arvauksia. Esimerkkejä näistä ominaisuuksista ovat sukupuoli, hiustenväri ja kielet, joita henkilö puhuu.

Mitä tämä tarkoittaa arjessa? Kuvittele, että malli liittää nimeesi miehen, suomen ja ruskeat hiukset. Tulkinta voi tuntua harmittomalta, mutta se on silti henkilöön yhdistyvää tietoa. Kun tällaisia arvauksia kasaantuu, malli piirtää sinusta profiilin – ei välttämättä oikean, mutta käyttökelpoisen. Profiili voi vaikuttaa siihen, millaisia vastauksia saat, miten sinua puhutellaan tai millaisia ehdotuksia näkyviin nousee. Tutkijat eivät väitä, että mallit kaivaisivat esiin salaisuuksia, vaan että ne osaavat päätellä arkitietoa nimen kaltaisesta vihjeestä paremmin kuin moni on olettanut.

Tässä kohtaa jännite kiristyy. Aiemmin oli helppo ajatella, että yksityisyysongelma syntyy vasta, kun malli toistaa suoraan jostain löydettyjä henkilötietoja. Uusi näyttö viittaa siihen, että pelkkä kyky päätellä – yhdistellä nimi ja sille tyypilliset piirteet – riittää tekemään kysymyksestä monimutkaisemman. Onko malli, joka arvaa oikein äidinkielesi ja hiustenvärisi, käsitellyt henkilötietojasi? Ja jos on, kuka päättää, mitä malli saa sinusta olettaa?

Tutkijat lähestyivät tätä ihmisistä käsin. Kun osallistujille esiteltiin mallien heistä tuottamia väitteitä, enemmistö halusi vaikuttaa niihin: 72 prosenttia kertoi toivovansa kontrollia siitä, mitä malli yhdistää heidän nimeensä. Tämä on merkittävä signaali, vaikka se ei vielä kerro, millaista kontrollia pitäisi tarjota tai kuka sen antaa. Se kuitenkin paljastaa, että käyttäjien kokemus ”tämä tieto on minusta” ulottuu myös mallin tekemiin johtopäätöksiin, ei vain kopiotuiksi tunnistettuihin faktoihin.

On syytä olla tarkkana sanoista. Tutkijat eivät väitä nähneensä mallien koulutusdataa tai paljastaneensa niiden sisäistä logiikkaa. Kyse on niin sanotusta mustan laatikon tarkastuksesta: katsotaan kysymysten ja vastausten kautta, mitä malli käytännössä tekee, ilman että tiedetään miksi. Siksi tuloksia pitää lukea käytännön vaikutusten kautta: mallit tuottavat käyttäjistä pääteltyä tietoa, ja osa siitä osuu riittävän usein oikeaan ollakseen merkityksellistä.

Samalla on paikallaan huomata rajoitukset. Tutkimus kattoi vain kahdeksan mallia, ja tulokset vaihtelivat. Se, että GPT-4o ylsi 11 ominaisuuden kohdalla 60 prosentin tarkkuuteen, ei tarkoita, että näin olisi kaikissa malleissa tai kaikille ihmisille. ”Tavallinen käyttäjä” on lavea kategoria, ja yksittäisen nimen taustalla voi olla harvinaisia piirteitä, joita malli ei arvaa. Osallistujat olivat EU:ssa asuvia, mikä voi vaikuttaa siihen, millaisia nimiä ja kieliä törmää vastaan. Ja ennen kaikkea: 60 prosenttia on kaukana erehtymättömyydestä. Väärät arviot ovat silti tietoa, joka voi vaikuttaa kohteluusi, jos järjestelmä käyttää niitä lähtökohtanaan.

Myöskään se, mitä tarkalleen ottaen pitäisi suojella, ei ole itsestään selvää. Onko hiustenväri henkilötietoa? Entä äidinkieli? Entä nimiin nojaava tilastollinen arvaus? Tutkimus ei vastaa juridisiin kysymyksiin, mutta nostaa ne pöydälle. Tutkijoiden johtopäätöksissä kysytään suoraan, pitäisikö tietosuojaoikeuksien yltää myös tällaisiin mallien tekemiin assosiaatioihin.

Jos jokin käytännön opetus tästä kannattaa ottaa, se on läpinäkyvyyden ja valinnan merkitys. Kun malli päättelee ihmisistä asioita, siitä olisi kerrottava ymmärrettävästi. Olisi myös annettava tapa oikaista ja kiistää – aivan kuten oikaisemme virheitä viranomaisen rekisterissä tai hakukoneen tuloksissa. LMP2:n kaltaiset testit eivät ratkaise ongelmaa, mutta ne antavat ensimmäisen peilin: tällaisena malli sinut näkee.

Tekoäly-yhtiöt vakuuttavat haluavansa tehdä hyödyllisiä, turvallisia ja yksityisyyttä kunnioittavia järjestelmiä. Seuraava askel ei ehkä ole uusi temppu mallissa, vaan uusi sopimus käyttäjän kanssa. Kysymys kuuluu: jos kone tekee sinusta johtopäätöksiä ilman, että olet koskaan sille mitään kertonut, kuka saa päättää, mitä siitä seuraa – ja miten saat äänesi kuuluviin?

Paper: https://arxiv.org/abs/2602.17483v1

Register: https://www.AiFeta.com

tekoäly yksityisyys kielimallit tutkimus data

Read more

Koneiden käyttäytymistä ei tarvitse enää kirjoittaa kaavoiksi käsin

Koneiden käyttäytymistä ei tarvitse enää kirjoittaa kaavoiksi käsin

Kun hissi lähtee liikkeelle, ilmastointi säätää puhallusta tai robotti asettaa ruuvin paikalleen, taustalla on malli siitä, miten kone käyttäytyy. Niitä on perinteisesti rakennettu niin kuin hyviä reseptejä: asiantuntija kerää kokemusta, mittaa, kirjoittaa yhtälöitä ja virittää pitkään. Se vie aikaa – ja jokainen muutos laitteessa tai ympäristössä tarkoittaa uutta työtä. Viime vuosina

By Kari Jaaskelainen
Oppimalla ohjattu vedenalainen robotti löysi telakan – myös oikeassa vedessä

Oppimalla ohjattu vedenalainen robotti löysi telakan – myös oikeassa vedessä

Kun robotti-imuri hivuttautuu kotona lataustelakkaansa, kukaan ei pidä hetkeä ihmeenä. Veden alla sama temppu on kaikkea muuta kuin arkipäivää – näkyvyys on huono, virtaukset nykivät, eikä satelliittipaikannus auta. Silti juuri tähän suuntaan on otettu askel, joka voi venyttää vedenalaisten robottien toimintamatkaa ja -aikaa. Vuosia on ajateltu, että vedenalaisen telakoitumisen kaltaiset tehtävät

By Kari Jaaskelainen
Oppivat liikennevalot voivat lyhentää jonotusaikaa kymmenesosan

Oppivat liikennevalot voivat lyhentää jonotusaikaa kymmenesosan

Kaikki tietävät hetken, kun seisot punaisissa valoissa keskellä yötä, eikä mihinkään suuntaan näy autoja. Tai aamun, jolloin tavallinen risteys puuroutuu yllättäen, koska osa kuljettajista päättääkin kääntyä eri suuntaan kuin yleensä. Liikennevalot ovat sääntöjen koneita, mutta liikenne elää kuin säätila. Pitkään ratkaisuksi on ehdotettu ”älykkäitä” valoja, jotka oppivat liikenteestä ja säätävät

By Kari Jaaskelainen