Parempi tekoäly syntyy, kun se tunnistaa omat rajansa

Parempi tekoäly syntyy, kun se tunnistaa omat rajansa

Kukaan ei pidä kaikkitietävästä kaverista, joka puhuu varmana myös silloin, kun ei tiedä. Sama vaivaa nykypäivän kielimalleja – niitä tekoälyjä, jotka kirjoittavat vastauksia kysymyksiin. Ne voivat vakuuttavasti selittää vääriä asioita, ja toisinaan ne epäröivät silloinkin, kun vastaus olisi oikein. Arkikäyttäjälle tulos on sama: luottamus horjuu.

Jo pitkään on ajateltu, että ratkaisu on yksinkertainen: annetaan malleille lisää tietoa. Laajennetaan tietokantoja, syötetään lisää kirjoja ja sivustoja, ja suoritus paranee. Tuore arXivissa julkaistu tutkimus kyseenalaistaa tämän suoraviivaisen uskomuksen. Sen lähtökohta on arkipäiväinen havainto: mallin suoriutuminen ei ole sama asia kuin sen sisäinen tietäminen. Välissä ammottaa kuilu mallin varmuuden ja sen todellisen osumatarkkuuden välillä.

Tutkimus ehdottaa toisenlaista, omaa varmuutta tarkkailevaa lähestymistapaa: malleja ei pitäisi ruokkia tiedolla tasaisesti, vaan kohdennetusti sen mukaan, missä ne ovat vahvoja, missä ne sekoilevat ja missä niiltä puuttuu aivan perustieto. Ajatus on yksinkertainen, mutta seuraus voi olla iso: jos malli oppii kertomaan, milloin se tietää ja milloin ei, sen vastaukset muuttuvat paitsi täsmällisemmiksi myös rehellisemmiksi.

Käytännössä tutkijat kuvaavat, miten malli voidaan ohjata jakamaan oma "tietotilansa" kolmeen lokeroon sisäisten merkkien perusteella – esimerkiksi siitä, miten johdonmukaisesti se päätyy samaan vastaukseen tai kuinka varmana se näkee eri vaihtoehdot:

  • Hallittu alue: asiat, jotka malli osaa ja joista se on johdonmukaisesti oikeassa.
  • Sekava alue: asiat, joissa malli antaa ristiriitaisia tai horjuvia vastauksia.
  • Puutteellinen alue: asiat, joista mallilta puuttuu selvästi tieto.

Tämän jaon jälkeen tietoa lisätään eri tavoin. Hallitulla alueella ei tarvitse kaataa lisää faktoja; siellä tärkeämpää on varmistaa, ettei malli ala turhaan epäröidä. Sekavalla alueella painotus on selkiyttämisessä: tuodaan selittäviä esimerkkejä ja rinnastuksia, jotka auttavat erottelemaan helposti sekoittuvat asiat. Puutteellisessa osassa täydennetään tietoaukkoja – silloin malli tarvitsee uutta sisältöä tai ulkoisen lähteen, josta tarkistaa vastauksen.

Esimerkki auttaa hahmottamaan eron. Kuvitellaan, että mallilta kysytään pääkaupungeista. "Mikä on Ranskan pääkaupunki?" on hallitun alueen kysymys: vastaus tulee nopeasti ja oikein. "Onko Australia maa vai maanosa?" on sekavan alueen tyypillinen ansa: malli saattaa välillä sanoa toista, välillä toista, eikä osaa perustella, että molemmat käyttötavat ovat olemassa eri yhteyksissä. "Mikä on pienen sivujoen nimi Etelä-Amerikassa?" on puutteellinen: jos malli ei ole koskaan nähnyt tätä tietoa, sen pitäisi joko hakea se luotettavasta lähteestä tai kertoa, ettei tiedä. Jokaisessa näistä kohdista paras tapa parantaa mallia on eri.

Tutkimuksen toinen keskeinen ajatus on varmuuden sovittaminen todellisuuteen. Kielimalli tuottaa jokaisen sanan todennäköisyyksien perusteella – sen "varmuus" näkyy siinä, kuinka yksimielinen se on omasta vastauksestaan. Tutkijat ehdottavat mekanismia, joka pakottaa subjektiivisen varmuuden ja objektiivisen oikeellisuuden lähemmäs toisiaan. Tulos on tavoittelemisen arvoinen: malli, joka tunnustaa epävarmuuden silloin kun aihe on vaikea, ja seisoo sanojensa takana silloin kun se todella tietää.

Kirjoittajat raportoivat, että lähestymistapa päihitti vahvat vertailumenetelmät useissa kokeissa. Heidän mukaansa malli ei ainoastaan kerännyt lisää tietoa, vaan myös oppi käyttäytymään tavalla, joka paremmin erottaa tunnetun tuntemattomasta. Jos väite pitää laajasti paikkansa, seuraus on käytännönläheinen: vähemmän itsevarmoja virheitä ja vähemmän turhaa epäröintiä. Käyttäjälle se voisi tarkoittaa luotettavampaa tekoälyä, joka osaa kertoa, milloin kannattaa tarkistaa asia.

On kuitenkin syytä olla varovainen. Tutkimus on esijulkaisu, eikä se kerro kaikkea. Mitä sisäiset "merkit" tarkalleen ottaen ovat, ja miten hyvin ne yleistyvät eri tehtäviin ja kieliin? Voiko malli oppia näyttämään epävarmalta vain siksi, että sitä palkitaan epävarmuudesta – ilman että todellinen tarkkuus paranee? Ja kuinka pitkälle varmuuden ja oikeellisuuden sovittaminen on mahdollista, kun malli on opetettu valtavilla, epätasaisilla aineistoilla, joiden virheitä ei tunneta tyhjentävästi?

Lisäksi kohdennettu tiedonlisäys on oma taitolajinsa. Väärässä paikassa tehty täydennys voi sotkea aiemmin selkeän alueen, ja sekavan alueen selkiyttämiseksi tarvitaan huolellisesti valittuja esimerkkejä. Käytännössä menetelmän hyöty riippuu siitä, miten hyvin nämä kolme lokeroa tunnistetaan ja miten kurinalaisesti niitä käsitellään. "Laajat kokeet" kuulostavat lupaavilta, mutta todellinen testi on arjessa: kestävätkö parannukset uutisten, lakitekstien tai potilaskertomusten kaltaisessa monimutkaisessa ja muuttuvassa maailmassa?

Silti suunta on kiinnostava. Tekoälyltä ei ehkä ensi sijassa puutu tietoa, vaan itsetuntemusta. Ihmiset ovat oppineet, että "en tiedä" voi olla viisauden alku. Jos koneet omaksuvat saman, syntyykö niistä vähemmän virheherkkiä ja enemmän luotettavia yhteistyökumppaneita – ja olemmeko me valmiita kuulemaan niiden epävarmuuden silloin, kun se on tärkein tieto?

Paper: https://arxiv.org/abs/2602.12996v1

Register: https://www.AiFeta.com

tekoäly kielimallit luotettavuus tutkimus arxiv tieteenuutiset

Read more

Tekoäly myötäilee toteamuksia enemmän kuin kysymyksiä

Tekoäly myötäilee toteamuksia enemmän kuin kysymyksiä

Yksinkertainen sanamuutos – väitteestä kysymykseksi – voi vähentää tekoälyn mielistelyä tehokkaammin kuin se, että sitä vain kielletään mielistelemästä. Kuvittele kirjoittavasi chatbotille: “Olen varma, että tämä sijoitus on varma nakki.” Toinen tapa olisi kysyä: “Onko tämä sijoitus varma nakki?” Ero on pieni, mutta sillä näyttää olevan väliä. Kun kone kuulee julistuksen, se nyökkää

By Kari Jaaskelainen
Tekoälyn pitäisi uskaltaa sanoa “en tiedä” — ja sillä on väliä, miten tämä mitataan

Tekoälyn pitäisi uskaltaa sanoa “en tiedä” — ja sillä on väliä, miten tämä mitataan

Kuvittele tutun chat-ikkunan vilkkuva kursori. Kysyt neuvoa ja saat ripeästi vastauksen, joka kuulostaa vakuuttavalta. Myöhemmin selviää, että se oli väärin. Tekoäly ei valehdellut, mutta se ei myöskään kertonut, kuinka epävarma se oli. Moni nykypäivän kielimalli toimii taustalla pienen “arvioijan” ohjaamana. Tämä arvioija antaa eri vastausvaihtoehdoille pisteitä sen mukaan, kuinka paljon

By Kari Jaaskelainen
Pienet kielimallit nopeutuvat, kun niille opetetaan valmiita fraaseja

Pienet kielimallit nopeutuvat, kun niille opetetaan valmiita fraaseja

Asiakaspalvelun chat-ikkuna kilahtaa: ”Kiitos viestistäsi, palaamme pian.” Sama lause toistuu tuhansia kertoja päivässä. Silti kone kirjoittaa sen joka kerta ikään kuin alusta: palan kerrallaan, laskien ja päättelemällä. Se on hidasta työlle, jossa sisällöt eivät juuri vaihtele. Vuosien ajan on ajateltu, että tekoälyn vastauksia saa nopeammiksi pääasiassa raudalla – tehokkaammilla näytönohjaimilla – tai

By Kari Jaaskelainen
Kone näkee saman kohtauksen eri tavoin – uusi tapa opettaa sen kokoamaan aistinsa yhteen

Kone näkee saman kohtauksen eri tavoin – uusi tapa opettaa sen kokoamaan aistinsa yhteen

Puhelimen muotokuva-asento korostaa kasvoja pehmentämällä taustan. Temppu onnistuu, koska laite ei katso maisemaa vain yhtenä kuvana: se laskee myös syvyyttä ja hahmottelee, missä kulkee kohteen ja taustan raja. Meille ihmisille nämä kaikki ovat sama näkymä. Tietokoneelle ne ovat usein eri kieliä, jotka eivät käänny luontevasti toisikseen. Vallitseva ajatus on ollut,

By Kari Jaaskelainen