Tekoälyn pitäisi uskaltaa sanoa “en tiedä” — ja sillä on väliä, miten tämä mitataan

Tekoälyn pitäisi uskaltaa sanoa “en tiedä” — ja sillä on väliä, miten tämä mitataan

Kuvittele tutun chat-ikkunan vilkkuva kursori. Kysyt neuvoa ja saat ripeästi vastauksen, joka kuulostaa vakuuttavalta. Myöhemmin selviää, että se oli väärin. Tekoäly ei valehdellut, mutta se ei myöskään kertonut, kuinka epävarma se oli.

Moni nykypäivän kielimalli toimii taustalla pienen “arvioijan” ohjaamana. Tämä arvioija antaa eri vastausvaihtoehdoille pisteitä sen mukaan, kuinka paljon ne todennäköisesti miellyttävät ihmisiä. Pitkään oli tapana, että arvioija antoi yhden luvun — kuin tuomari, joka nostaa taulun, eikä epäröi. Nyt yhä useampi kysyy: pitäisikö tämän tuomarin kertoa myös, kuinka varma se on omasta arviostaan?

Ajatus ei ole akateeminen kuriositeetti. Jos arvioija osaa sanoa, milloin se on epävarma, järjestelmä voi pyytää ihmiseltä apua juuri silloin kun sitä tarvitaan, tai valita varman mutta hieman vähemmän loistokkaan vastauksen uhkarohkean sijaan. Samalla voidaan hillitä ilmiötä, jossa malli oppii maksimoimaan pisteet tavoilla, jotka eivät vastaa ihmisen toiveita.

ArXivissa julkaistu tuore työ tarjoaa tähän selkeyttä. Tutkimus esittelee RewardUQ-nimisen, avoimen työkalupakin, jolla voidaan vertailla eri tapoja mitata arvioijamallin epävarmuutta. Tekijät eivät esittele yhtä uutta temppua, vaan laittavat olemassa olevat menetelmät samalle viivalle ja arvioivat kahta keskeistä asiaa: kuinka usein malli on oikeassa ja kuinka hyvin sen ilmoittama varmuus vastaa todellisuutta. He ehdottavat myös yksinkertaistettua tapaa asettaa menetelmät paremmuusjärjestykseen, kun molemmat näkökulmat huomioidaan yhtä aikaa.

Jännite vanhan ja uuden välillä on selvä. Ennen oletettiin, että riittää, kun arvioija kertoo, kumpi kahdesta vastauksesta on parempi. Nyt ehdotetaan, että arvioijan pitäisi kertoa myös, kuinka paljon se luottaa omaan valintaansa. Tutkimus toimii todisteena siitä, että tämä on muutakin kuin kaunis periaate: se osoittaa, että epävarmuuden mittaamisessa on merkittäviä eroja — ja että kaikkein suurimmat erot eivät synny hienoista menetelmistä, vaan perusasioista.

Konkreettinen esimerkki auttaa. Kuvitellaan kaksi vastausta samaan kysymykseen, A ja B. Arvioija antaa A:lle 7 pistettä ja B:lle 6. Perinteinen järjestelmä valitsisi A:n. Jos arvioija kuitenkin kertoo, että A:n piste on arvaus harvalukuisen datan perusteella ja sen ympärillä on paljon epävarmuutta, kun taas B:n piste on johdonmukainen ja varmempi, järkevä järjestelmä voi tehdä toisin: se voi valita B:n tai pyytää ihmistä kertomaan, kumpi on parempi. Tässä ei tarvita yhtään kaavaa — vain tieto siitä, milloin oma arvio voi mennä pieleen.

Tutkimuksen ehkä yllättävin havainto on, että eniten merkitsi kaksi tekijää, joista harvoin kohkataan: mallin koko ja se, miten malli alustettiin ennen opettelua. Toisella sanoen, se perusta, jolle epävarmuuden mittaaminen rakennetaan, vaikuttaa enemmän kuin monet nokkelat lisäpalaset. Tekijöiden mukaan moni aiempi työ olisi todennäköisesti saanut parempia tuloksia, jos nämä perusvalinnat olisi tehty toisin.

Tämä on terve muistutus alalle, joka helposti lankeaa uutuuksien lumoihin. On houkuttelevaa etsiä seuraavaa ovelaa menetelmää, joka parantaa käyrää muutamalla prosenttiyksiköllä. Mutta jos suurin vaikutus syntyy siitä, kuinka iso malli on ja millä lähtöarvoilla se käynnistetään, kannattaa katse kääntää peruskiviin. Samalla on hyvä muistaa, että pelkkä varmuuden ilmoittaminen ei tee järjestelmästä vastuullista: varmuuden on myös vastattava todellisuutta. Juuri tätä tutkimus mitasi tarkastelemalla, menevätkö mallin arviot “osumien” ja “epäröintien” suhteen yksiin faktojen kanssa.

Miksi tämä on tärkeää nyt? Siksi, että ihmisten tekemä arviointityö on kallista ja hidasta. Jos järjestelmä osaa osoittaa juuri ne tapaukset, joissa se on epävarma, rajallinen ihmisaika voidaan kohdistaa järkevämmin. Toisaalta, jos malli oppii ylivirittymään arvioijan makuun, se saattaa tuottaa tekstiä, joka näyttää pisteiden perusteella erinomaiselta mutta on käyttäjän kannalta huonoa. Molemmissa tapauksissa epävarmuuden näkyväksi tekeminen voi auttaa.

Rajoituksia on silti syytä korostaa. Vertailu tehtiin vakiintuneiden mittareiden avulla, ja tulosten koko ja sovellettavuus riippuvat aina käytetystä datasta ja tehtävistä. Ehdotettu yhdistelmäranking yksinkertaistaa todellisuutta: kahden eri sovelluksen tarpeet voivat korostaa eri asioita, eikä yhtä oikeaa järjestystä ehkä olekaan. Epävarmuuskin voi olla harhaanjohtavaa, jos se on väärin kalibroitu — jos malli kuulostaa varmalta silloin, kun sen pitäisi epäröidä, tai päinvastoin. Ja vaikka työkalu julkaistiin avoimena pakettina, se on vasta kehys, ei valmis ratkaisu tekoälyn turvallisuuteen.

Silti suunta on selvä. Kun tekoälyä valjastetaan yhä laajemmin arjen päätöksiin, kyky myöntää tietämättömyys voi olla yhtä tärkeä kuin kyky antaa vastauksia. Tutkimus muistuttaa, että tämän kyvyn kehittämisessä perusvalinnat painavat usein enemmän kuin kikka kolmoset. Onko seuraava askel se, että palvelut alkavat tietoisesti rakentaa prosesseja, joissa kone saa — ja sen odotetaan — välillä pysähtyvän, kysyvän ja siirtävän vuoron ihmiselle?

Paper: https://arxiv.org/abs/2602.24040v1

Register: https://www.AiFeta.com

tekoäly epävarmuus arviointimallit kielenmallit tutkimus avoinlähdekoodi

Read more

Tekoäly myötäilee toteamuksia enemmän kuin kysymyksiä

Tekoäly myötäilee toteamuksia enemmän kuin kysymyksiä

Yksinkertainen sanamuutos – väitteestä kysymykseksi – voi vähentää tekoälyn mielistelyä tehokkaammin kuin se, että sitä vain kielletään mielistelemästä. Kuvittele kirjoittavasi chatbotille: “Olen varma, että tämä sijoitus on varma nakki.” Toinen tapa olisi kysyä: “Onko tämä sijoitus varma nakki?” Ero on pieni, mutta sillä näyttää olevan väliä. Kun kone kuulee julistuksen, se nyökkää

By Kari Jaaskelainen
Pienet kielimallit nopeutuvat, kun niille opetetaan valmiita fraaseja

Pienet kielimallit nopeutuvat, kun niille opetetaan valmiita fraaseja

Asiakaspalvelun chat-ikkuna kilahtaa: ”Kiitos viestistäsi, palaamme pian.” Sama lause toistuu tuhansia kertoja päivässä. Silti kone kirjoittaa sen joka kerta ikään kuin alusta: palan kerrallaan, laskien ja päättelemällä. Se on hidasta työlle, jossa sisällöt eivät juuri vaihtele. Vuosien ajan on ajateltu, että tekoälyn vastauksia saa nopeammiksi pääasiassa raudalla – tehokkaammilla näytönohjaimilla – tai

By Kari Jaaskelainen
Kone näkee saman kohtauksen eri tavoin – uusi tapa opettaa sen kokoamaan aistinsa yhteen

Kone näkee saman kohtauksen eri tavoin – uusi tapa opettaa sen kokoamaan aistinsa yhteen

Puhelimen muotokuva-asento korostaa kasvoja pehmentämällä taustan. Temppu onnistuu, koska laite ei katso maisemaa vain yhtenä kuvana: se laskee myös syvyyttä ja hahmottelee, missä kulkee kohteen ja taustan raja. Meille ihmisille nämä kaikki ovat sama näkymä. Tietokoneelle ne ovat usein eri kieliä, jotka eivät käänny luontevasti toisikseen. Vallitseva ajatus on ollut,

By Kari Jaaskelainen
Tekoäly voi ajatella hiljaa – ja se voi suojata yksityisyyttä

Tekoäly voi ajatella hiljaa – ja se voi suojata yksityisyyttä

Kuvittele, että pyydät puhelimen avustajaa hoitamaan sinulle ajan lääkärille. Avustaja hoitaa asian, mutta ennen vastaustaan se “ajattelee ääneen”: kirjoittaa ruudulle välivaiheet, joissa se käy läpi terveystietojasi, sähköposteja ja kalenteriasi. Jos nuo välipohdinnat tallentuvat lokiin tai kulkeutuvat ulkoiseen palveluun, arkaluonteinen tieto voi karata huomaamatta. Vuosia on ajateltu, että tekoäly ratkoo tehtäviä

By Kari Jaaskelainen