Tekoäly voi muistaa sinut – ja silti unohtaa sinut napin painalluksella
Kun poistat tilisi verkosta, toivot että myös muistosi katoavat palvelusta. Mutta mitä tapahtuu, jos palvelun taustalla on oppiva kielimalli – sellainen, joka on vuosien varrella napannut talteen tapasi kirjoittaa, suosikki-ilmaisusi ja pienen joukon arkisia faktoja? Perinteisesti vastaus on ollut ikävä: jos tieto on ”leivottu” osaksi yhteistä älyä, sitä ei saa irti ilman, että koko malli opetetaan uudelleen.
Uusi tutkimus ehdottaa toisenlaista lähtökohtaa. Sen ydinajatus on yksinkertainen mutta seurauksiltaan iso: pidetään käyttäjäkohtainen tieto erillään kaikesta muusta. Silloin unohtaminen ei ole aivokirurgiaa, vaan tiedoston poistamista.
Pitkään on ajateltu, että personointi eli yksilöllistäminen vaatii mallin hienosäätöä käyttäjän omilla aineistoilla. Samalla henkilökohtaiset jäljet päätyvät jaetun mallin sisuksiin, ”painoihin”, joista niitä ei voi siististi kaivaa pois. ArXivissa julkaistu artikkeli esittää toisen reitin: kolmikerroksisen rakenteen, jossa yhteinen osaaminen, alakohtainen tapa toimia ja käyttäjäkohtainen muisti erotetaan toisistaan.
Rakenne toimii näin. Alimmalla tasolla on vakioitu perusmalli – yleissivistyksen kaltainen selkäranka, jota ei muuteta käyttäjän vuoksi. Sen päälle voidaan lisätä alakohtaisia lisäosia, jotka säätävät mallin käytöstä esimerkiksi lakitekstien, asiakaspalvelun tai lääketieteellisen selittämisen suuntaan. Näiden tarkoitus on määrittää ”tyyli” ja toimintatapa, ei sisältää kenenkään henkilötietoja. Kolmas kerros on käyttäjäkohtainen: pieni välitiedosto, eräänlainen proxy, johon henkilön oma jälki tallentuu. Se vaikuttaa mallin vastauksiin juuri tälle ihmiselle – ja sen voi poistaa.
Kuvitellaan konkreettinen esimerkki. Yrityksellä on kirjoittava tekoäly, joka laatii vastauksia asiakkaille. Perusmalli tuo yleisen kielitaidon. Sen päälle kytketään pankkialaa kuvaava lisäosa, jotta vastaukset ovat täsmällisiä ja asiallisia. Kun työntekijä Anna käyttää järjestelmää, hänen omaan tyyliinsä – vaikka lyhyisiin tervehdyksiin ja tapaan viitata tiettyihin tuotteisiin – liittyvä tieto tallentuu Annan omaan pieneen tiedostoon. Jos Anna lähtee yrityksestä tai pyytää, että häntä koskeva oppi unohdetaan, poistetaan vain tuo tiedosto. Jaetun mallin yleinen kyky palvella pankkiasiakkaita säilyy.
Tutkijat testasivat lähestymistapaa kahdella tunnetulla kielimallilla (Phi-3.5-mini ja Llama-3.1-8B). Heidän mukaansa käyttäjäkohtaiset vaikutukset näkyivät mallin vastauksissa silloin kun proxy oli kytketty, mutta kun se poistettiin, malli palasi lähelle lähtötasoaan. Vahvistusmenettely onnistui valtaosassa kokeita, ja eri käyttäjien väliset vuotovirheet jäivät hyvin vähäisiksi: yhden henkilön tieto ei ”värittänyt” toisten vastauksia. Lisäksi koska mitään käyttäjäkohtaista ei koskaan kirjoiteta jaettuihin osiin, malli on rakenteellisesti suojatumpi sellaisilta hyökkäyksiltä, joissa yritetään onkia esiin harjoitteludataa mallin vastauksista.
Ajatus kuulostaa tekniseltä, mutta sen arvo on arkinen. Monissa maissa lainsäädäntö edellyttää, että ihminen voi pyytää tietojensa poistamista. Tähän asti ”koneen unohtaminen” on ollut koneoppimisessa vaikea ongelma. Uusi malli muuttaa sen näppärästi: kun henkilökohtainen osa on omassa laatikossaan, poistaminen on selkeää, ja palvelu voi jatkaa toimintaansa muilta osin entisellään. Vielä merkittävämpää on se, että jaetun mallin parantamista voi tehdä yksityisyyttä varjelevilla tekniikoilla ilman, että yksittäisen ihmisen tiedot koskaan päätyvät yhteisiin rattaisiin – tutkimus mainitsee yhteensopivuuden tunnettujen, yksityisyyttä vahvistavien koulutusmenetelmien kanssa.
On silti syytä pitää mieli viileänä. Todisteet ovat peräisin kokeista kahdella mallilla ja rajoitetuissa asetelmissa. Tulokset kertovat lupaavasta suunnasta, eivät vielä siitä, miten lähestymistapa toimii kaikkein suurimmissa ja vilkkaimmissa palveluissa, joissa käyttäjiä on miljoonia ja lisäosia kytketään ja irrotetaan jatkuvasti. Myös todellinen suojaavuus mitataan vasta arjessa: pystyykö kukaan kiertämään erottelua siten, että henkilökohtaista tietoa livahtaa vahingossa jaettuihin osiin? Ja miten tarkasti poistaminen voidaan aina todentaa, kun vahvistus onnistui kokeissa ”useimmiten” eikä joka kerta?
Lisäksi on käytännön kysymyksiä. Jos henkilökohtaiset proxit ovat se paikka, jossa muistijälki elää, niistä tulee itsessään arvokkaita ja suojelemisen arvoisia. Kuka hallitsee niitä? Miten niiden käyttöä valvotaan ja miten estetään, ettei alakohtainen lisäosa jää kuitenkin kantamaan tunnistettavia sirpaleita ihmisistä, jos sitä koulutetaan pitkään saman joukon kanssa? Tutkimus korostaa, että alalisäosien ei pidäkään sisältää henkilötietoa, mutta toteutus ja valvonta ratkaisevat.
Silti perusratkaisu – oppi erotellaan osiin, ja käyttäjäkohtainen jälki on poistettavissa – on selvästi askel kohti käytännöllisempää yksityisyydensuojaa. Se kääntää unohduksen vaikean ongelman selväksi toiminnoksi. Kun tekoäly muuttaa arkea, tällaiset perusvalinnat alkavat painaa yhä enemmän: jos malli voi oppia meistä, pitäisikö meidän samalla vaatia, että se voi myös varmasti unohtaa – ja että unohtaminen on suunnitteluperiaate, ei jälkikäteen paikattava ominaisuus?
Paper: https://arxiv.org/abs/2604.21571v1
Register: https://www.AiFeta.com
tekoäly yksityisyys kielimallit data tutkimus