Parempi tekoäly syntyy, kun se tunnistaa omat rajansa

Parempi tekoäly syntyy, kun se tunnistaa omat rajansa

Kukaan ei pidä kaikkitietävästä kaverista, joka puhuu varmana myös silloin, kun ei tiedä. Sama vaivaa nykypäivän kielimalleja – niitä tekoälyjä, jotka kirjoittavat vastauksia kysymyksiin. Ne voivat vakuuttavasti selittää vääriä asioita, ja toisinaan ne epäröivät silloinkin, kun vastaus olisi oikein. Arkikäyttäjälle tulos on sama: luottamus horjuu.

Jo pitkään on ajateltu, että ratkaisu on yksinkertainen: annetaan malleille lisää tietoa. Laajennetaan tietokantoja, syötetään lisää kirjoja ja sivustoja, ja suoritus paranee. Tuore arXivissa julkaistu tutkimus kyseenalaistaa tämän suoraviivaisen uskomuksen. Sen lähtökohta on arkipäiväinen havainto: mallin suoriutuminen ei ole sama asia kuin sen sisäinen tietäminen. Välissä ammottaa kuilu mallin varmuuden ja sen todellisen osumatarkkuuden välillä.

Tutkimus ehdottaa toisenlaista, omaa varmuutta tarkkailevaa lähestymistapaa: malleja ei pitäisi ruokkia tiedolla tasaisesti, vaan kohdennetusti sen mukaan, missä ne ovat vahvoja, missä ne sekoilevat ja missä niiltä puuttuu aivan perustieto. Ajatus on yksinkertainen, mutta seuraus voi olla iso: jos malli oppii kertomaan, milloin se tietää ja milloin ei, sen vastaukset muuttuvat paitsi täsmällisemmiksi myös rehellisemmiksi.

Käytännössä tutkijat kuvaavat, miten malli voidaan ohjata jakamaan oma "tietotilansa" kolmeen lokeroon sisäisten merkkien perusteella – esimerkiksi siitä, miten johdonmukaisesti se päätyy samaan vastaukseen tai kuinka varmana se näkee eri vaihtoehdot:

  • Hallittu alue: asiat, jotka malli osaa ja joista se on johdonmukaisesti oikeassa.
  • Sekava alue: asiat, joissa malli antaa ristiriitaisia tai horjuvia vastauksia.
  • Puutteellinen alue: asiat, joista mallilta puuttuu selvästi tieto.

Tämän jaon jälkeen tietoa lisätään eri tavoin. Hallitulla alueella ei tarvitse kaataa lisää faktoja; siellä tärkeämpää on varmistaa, ettei malli ala turhaan epäröidä. Sekavalla alueella painotus on selkiyttämisessä: tuodaan selittäviä esimerkkejä ja rinnastuksia, jotka auttavat erottelemaan helposti sekoittuvat asiat. Puutteellisessa osassa täydennetään tietoaukkoja – silloin malli tarvitsee uutta sisältöä tai ulkoisen lähteen, josta tarkistaa vastauksen.

Esimerkki auttaa hahmottamaan eron. Kuvitellaan, että mallilta kysytään pääkaupungeista. "Mikä on Ranskan pääkaupunki?" on hallitun alueen kysymys: vastaus tulee nopeasti ja oikein. "Onko Australia maa vai maanosa?" on sekavan alueen tyypillinen ansa: malli saattaa välillä sanoa toista, välillä toista, eikä osaa perustella, että molemmat käyttötavat ovat olemassa eri yhteyksissä. "Mikä on pienen sivujoen nimi Etelä-Amerikassa?" on puutteellinen: jos malli ei ole koskaan nähnyt tätä tietoa, sen pitäisi joko hakea se luotettavasta lähteestä tai kertoa, ettei tiedä. Jokaisessa näistä kohdista paras tapa parantaa mallia on eri.

Tutkimuksen toinen keskeinen ajatus on varmuuden sovittaminen todellisuuteen. Kielimalli tuottaa jokaisen sanan todennäköisyyksien perusteella – sen "varmuus" näkyy siinä, kuinka yksimielinen se on omasta vastauksestaan. Tutkijat ehdottavat mekanismia, joka pakottaa subjektiivisen varmuuden ja objektiivisen oikeellisuuden lähemmäs toisiaan. Tulos on tavoittelemisen arvoinen: malli, joka tunnustaa epävarmuuden silloin kun aihe on vaikea, ja seisoo sanojensa takana silloin kun se todella tietää.

Kirjoittajat raportoivat, että lähestymistapa päihitti vahvat vertailumenetelmät useissa kokeissa. Heidän mukaansa malli ei ainoastaan kerännyt lisää tietoa, vaan myös oppi käyttäytymään tavalla, joka paremmin erottaa tunnetun tuntemattomasta. Jos väite pitää laajasti paikkansa, seuraus on käytännönläheinen: vähemmän itsevarmoja virheitä ja vähemmän turhaa epäröintiä. Käyttäjälle se voisi tarkoittaa luotettavampaa tekoälyä, joka osaa kertoa, milloin kannattaa tarkistaa asia.

On kuitenkin syytä olla varovainen. Tutkimus on esijulkaisu, eikä se kerro kaikkea. Mitä sisäiset "merkit" tarkalleen ottaen ovat, ja miten hyvin ne yleistyvät eri tehtäviin ja kieliin? Voiko malli oppia näyttämään epävarmalta vain siksi, että sitä palkitaan epävarmuudesta – ilman että todellinen tarkkuus paranee? Ja kuinka pitkälle varmuuden ja oikeellisuuden sovittaminen on mahdollista, kun malli on opetettu valtavilla, epätasaisilla aineistoilla, joiden virheitä ei tunneta tyhjentävästi?

Lisäksi kohdennettu tiedonlisäys on oma taitolajinsa. Väärässä paikassa tehty täydennys voi sotkea aiemmin selkeän alueen, ja sekavan alueen selkiyttämiseksi tarvitaan huolellisesti valittuja esimerkkejä. Käytännössä menetelmän hyöty riippuu siitä, miten hyvin nämä kolme lokeroa tunnistetaan ja miten kurinalaisesti niitä käsitellään. "Laajat kokeet" kuulostavat lupaavilta, mutta todellinen testi on arjessa: kestävätkö parannukset uutisten, lakitekstien tai potilaskertomusten kaltaisessa monimutkaisessa ja muuttuvassa maailmassa?

Silti suunta on kiinnostava. Tekoälyltä ei ehkä ensi sijassa puutu tietoa, vaan itsetuntemusta. Ihmiset ovat oppineet, että "en tiedä" voi olla viisauden alku. Jos koneet omaksuvat saman, syntyykö niistä vähemmän virheherkkiä ja enemmän luotettavia yhteistyökumppaneita – ja olemmeko me valmiita kuulemaan niiden epävarmuuden silloin, kun se on tärkein tieto?

Paper: https://arxiv.org/abs/2602.12996v1

Register: https://www.AiFeta.com

tekoäly kielimallit luotettavuus tutkimus arxiv tieteenuutiset

Read more

Koneiden käyttäytymistä ei tarvitse enää kirjoittaa kaavoiksi käsin

Koneiden käyttäytymistä ei tarvitse enää kirjoittaa kaavoiksi käsin

Kun hissi lähtee liikkeelle, ilmastointi säätää puhallusta tai robotti asettaa ruuvin paikalleen, taustalla on malli siitä, miten kone käyttäytyy. Niitä on perinteisesti rakennettu niin kuin hyviä reseptejä: asiantuntija kerää kokemusta, mittaa, kirjoittaa yhtälöitä ja virittää pitkään. Se vie aikaa – ja jokainen muutos laitteessa tai ympäristössä tarkoittaa uutta työtä. Viime vuosina

By Kari Jaaskelainen
Oppimalla ohjattu vedenalainen robotti löysi telakan – myös oikeassa vedessä

Oppimalla ohjattu vedenalainen robotti löysi telakan – myös oikeassa vedessä

Kun robotti-imuri hivuttautuu kotona lataustelakkaansa, kukaan ei pidä hetkeä ihmeenä. Veden alla sama temppu on kaikkea muuta kuin arkipäivää – näkyvyys on huono, virtaukset nykivät, eikä satelliittipaikannus auta. Silti juuri tähän suuntaan on otettu askel, joka voi venyttää vedenalaisten robottien toimintamatkaa ja -aikaa. Vuosia on ajateltu, että vedenalaisen telakoitumisen kaltaiset tehtävät

By Kari Jaaskelainen
Oppivat liikennevalot voivat lyhentää jonotusaikaa kymmenesosan

Oppivat liikennevalot voivat lyhentää jonotusaikaa kymmenesosan

Kaikki tietävät hetken, kun seisot punaisissa valoissa keskellä yötä, eikä mihinkään suuntaan näy autoja. Tai aamun, jolloin tavallinen risteys puuroutuu yllättäen, koska osa kuljettajista päättääkin kääntyä eri suuntaan kuin yleensä. Liikennevalot ovat sääntöjen koneita, mutta liikenne elää kuin säätila. Pitkään ratkaisuksi on ehdotettu ”älykkäitä” valoja, jotka oppivat liikenteestä ja säätävät

By Kari Jaaskelainen