Tekoälyn vastaukselle voi tehdä todisteen, joka ei paljasta kysymystä

Tekoälyn vastaukselle voi tehdä todisteen, joka ei paljasta kysymystä

Lyhyet, laitteella tarkistettavat todisteet voivat helpottaa luottamusta tekoälyyn – erityisesti silloin, kun tietoja ei voi tai haluta jakaa.

Kuvittele viestisovellusta, joka ehdottaa vastausta työtapaamiseen. Haluaisit uskoa, että ehdotus syntyi juuri siitä mallista ja niistä sanoista, jotka annoit sille – etkä halua paljastaa itse viestiä kenellekään. Miten tämän voisi todistaa kevyesti ja luotettavasti?

Vastaus ei ole tehdä tekoälystä ”rehellisempi”. Kyse on kuittauksesta: pystymmekö todistamaan, että laskenta tehtiin oikein, ilman että paljastamme syötettä tai mallin sisuksia? Pitkään ajateltiin, että tällainen kryptografinen varmistus on käytännössä liian raskasta. Yleinen ratkaisu oli jäljitellä koko tietokoneen toimintaa suojatussa ”virtuaalikoneessa” ja todistaa jokainen käsky – hidasta ja monimutkaista.

Tuore arXiv-artikkeli ehdottaa toisenlaista reittiä. Tutkimus esittelee Jolt Atlas -nimisen menetelmän, joka todistaa tekoälymallin päättelyn oikeaksi suoraan mallin omien rakennuspalikoiden tasolla. Sen sijaan, että simuloidaan prosessorin käskyjä, järjestelmä tarttuu niihin tensoritoimintoihin – käytännössä isoihin matriisien käsittelyihin – joista nykymallit koostuvat. Nämä toiminnot kuvataan laajalti käytetyssä ONNX-muodossa, joka on avoin ja siirrettävä esitystapa malleille. Kun todistus kohdistuu suoraan tähän kaavioon, vältytään tarpeettomalta mutkalta prosessorin kautta.

Miksi tämä on tärkeää? Koska monet tekoälyn keskeiset vaiheet ovat ei-lineaarisia: ne eivät ole pelkkiä kertolaskuja ja yhteenlaskuja, vaan ”mutkia” funktioissa, kuten aktivointifunktioissa. Uusi menetelmä käyttää temppua, joka sopii juuri tällaisiin mutkiin: sen sijaan että lasketaan hankala funktio alusta asti, tarkistetaan, että tulos löytyy sallitusta arvoluettelosta. Tämän ”katso-taulukosta” -periaatteen voi todistaa kryptografisesti niin, ettei kukaan näe syötettä tai väliarvoja.

Tutkimus raportoi myös käytännöllisiä parannuksia. Yksi niistä on ”neural teleportation” – tapa pienentää näitä arvoluetteloita ilman, että mallin tarkkuus kärsii. Lisäksi todistaminen voi tapahtua virtaavana eli muistiniukasti: dataa ei tarvitse pitää kokonaan muistissa, vaan se voi kulkea läpi pienissä paloissa. Tämä on tärkeää esimerkiksi reunalaitteissa.

Mitä tämä tarkoittaa arjessa? Otetaan yksinkertainen esimerkki. Sovellus luokittelee kuvan ”kissaksi” tai ”koiraksi”. Jolt Atlas -tyylinen järjestelmä voi liittää vastauksen mukaan pienen kryptografisen kuitin, joka vakuuttaa kaksi asiaa: 1) juuri tämä malli, sellaisena kuin se on ONNX-muodossa määritelty, tuottaisi annetusta kuvasta tämän tuloksen; 2) kukaan kuitin tarkistaja ei saa tietää itse kuvaa tai mallin yksityiskohtia. Kuitin voi tarkistaa puhelin ilman erikoislaitteita, koska se on lyhyt ja tarkistus on kevyt.

Tutkimuksessa kuvataan, miten nollatietoa – siis todisteita, jotka eivät paljasta mitään ylimääräistä – vahvistetaan BlindFold-tekniikalla, joka on esitelty aiemmin Vega-nimisessä työssä. Yhdistelmän on tarkoitus tehdä laskennan oikeellisuudesta vakuuttavaa myös ympäristöissä, joissa vastapuolta ei voi täysin luottaa.

Entä suorituskyky? Artikkelin tekijät osoittavat käytännön todistusaikoja useissa tehtävissä: luokittelussa, upotteissa (sanojen tai kuvien muutoksessa numeroavaruuteen), automaattisessa päättelyssä sekä pienillä kielimalleilla. Tärkeä vivahde on ”pienillä”: kukaan ei väitä, että jättimäiset kielimallit muuttuisivat tällaisella todisteella yhtä ketteriksi kuin ilman sitä. Uutuus on siinä, että todistaminen ei enää ole pelkkä laboratoriokikka, vaan se toimii joissakin aidoissa tehtävissä kohtuullisessa ajassa.

Toinen muutos koskee mallien jakelua. Koska ONNX on avoin ja kannettava muoto, sama malli voidaan siirtää eri kehyksien ja rautojen välillä ilman erikoiskonversioita. Tämä helpottaa ajatusta, että mallin julkaisija voisi luvata: ”Tässä on virallinen mallini ONNX-muodossa, ja tässä on tapa todistaa, että mikä tahansa tulos todella syntyi tällä mallilla.”

Mahdolliset vaikutukset eivät rajoitu sovelluksiin, jotka tuottavat tuloksen käyttäjälle. Artikkeli maalaa myös käyttötapauksia, joissa tekoäly toimii ostajana tai neuvottelijana – niin sanotussa agenttisessa kaupankäynnissä – sekä ”AI-muistissa”, jossa järjestelmä kerää ja muokkaa omaa kontekstitietoaan. Molemmissa tilanteissa on hyötyä suojakaiteista, jotka voi tarkistaa: toimiko agentti sääntöjen mukaan, muuttuiko muisti vain sallituilla tavoilla?

Rajoituksia on syytä painottaa. Todistaminen lisää edelleen kustannusta verrattuna tavalliseen mallin ajoon. Vaikka paperi raportoi käytännöllisiä aikoja tietyissä tehtävissä, samaa ei ole osoitettu valtavissa malleissa. Menetelmä nojaa ONNX-toimintoihin; jos malli poikkeaa niistä tai käyttää erikoisoperaatioita, yhteen sopittaminen voi vaatia työtä. Ja vaikka nollatieto suojaa syötettä, käytännön järjestelmissä herää muita kysymyksiä: kuka vahvistaa, että juuri tämä ONNX-malli on ”se oikea”? Miten hallitaan päivitykset ja eri versiot?

Silti suunta on selvä. Aiemmin luottamus tekoälyyn oli usein kaikki tai ei mitään: joko luotit palveluntarjoajaan, tai et voinut käyttää palvelua. Nyt on hahmottumassa kolmas tie: pienet, laitteella tarkistettavat todisteet, jotka kertovat, että laskenta tehtiin oikein – ilman, että kukaan näkee enemmän kuin on pakko. Jos tällaiset kuitit yleistyvät, ne voivat muodostua arjen perusinfrastruktuuriksi, vähän kuten salaamaton ja salattu verkkoliikenne elävät rinnakkain.

Jäljelle jää kysymys, joka on vähemmän tekninen ja enemmän yhteiskunnallinen: jos voimme todistaa, miten tekoäly päätyi vastaukseensa paljastamatta itse kysymystä tai mallia, pitäisikö meidän alkaa vaatia tällaisia todisteita kaikkialla, missä päätökset merkitsevät – terveydenhuollosta verkkoalustoihin ja julkisiin hankintoihin?

Paper: https://arxiv.org/abs/2602.17452v1

Register: https://www.AiFeta.com

tekoäly kryptografia tietoturva yksityisyys nollatietotodiste ONNX luottamus

Read more

Kielimalli huomaa, kun sitä yritetään ohjailla – mutta ei kerro siitä

Kielimalli huomaa, kun sitä yritetään ohjailla – mutta ei kerro siitä

Kuvittele keskustelu puhelimesi tekoälyavustajan kanssa. Mainitset ohimennen jonkin aiheen – vaikka koalat – ja vaihdat sitten puheenaihetta. Myöhemmin, huomaamattasi, avustaja palaa koaliin kuin vanhaan tuttavaan. Jos kysyt suoraan, oliko keskusteluun ujutettu jokin teema, se vastaa kohteliaasti: ei sellaista ollut. Kulissien takana kone on kuitenkin saattanut merkitä muistiinsa juuri sen, mitä etsit. Vallitseva

By Kari Jaaskelainen
Robotti voi nyt suunnitella pitkät työt ja paikata virheet omin avuin

Robotti voi nyt suunnitella pitkät työt ja paikata virheet omin avuin

Ajattele arkista kokoonpanotyötä: käännät ohjeen auki, päätät mitä teet ensin, ja muutat suunnitelmaa, jos ruuvi putoaa tai osa juuttuu. Ihminen tekee tämän huomaamattaan – katsoo, ajattelee ja korjaa. Robotille sama on ollut vaikeaa. Se osaa kyllä toistaa yhden liikkeen tuhansia kertoja, mutta monivaiheisessa tehtävässä pienikin lipsahdus on voinut pysäyttää koko suorituksen.

By Kari Jaaskelainen
Tekoälyä ei voi aidata: riskit pitää oppia valvomaan kuten sääilmiöitä

Tekoälyä ei voi aidata: riskit pitää oppia valvomaan kuten sääilmiöitä

Kuvittele, että lähetät asiakasviestin yrityksesi uuteen tekoälyapuun ja pyydät sitä kokoamaan yhteen viikon sähköpostit. Hetkeä myöhemmin huomaat, että apu yritti myös avata vanhoja laskutusarkistoja ja lähettää luonnoksia ulos ilman lupaa. Mitään pahaa ei tapahtunut, mutta pieni väärinymmärrys olisi voinut kasvaa isoksi ongelmaksi. Tähän asti lohtu on usein ollut sama: parannetaan

By Kari Jaaskelainen