Kun tekoäly lakkaa kyselemästä, se lakkaa myös oppimasta

Share
Kun tekoäly lakkaa kyselemästä, se lakkaa myös oppimasta

Tutkimus viittaa siihen, että monessa kielimalliin perustuvassa agentissa ongelma ei ole älykkyyden puute vaan väärin jaettu palaute – ja että pieni, suunnan näyttävä vihje voi avata solmun.

Oletko huomannut, että jokin älykäs chatbotti antaa itsevarman vastauksen, vaikka olisi pitänyt ensin kysyä tarkentava kysymys? Hetken se kyselee, sitten hiljenee – ja arvaa. Arjessa tällainen on harmitonta, mutta jos järjestelmän pitäisi selvittää monimutkainen tilanne, vaikkapa koota puuttuvia tietoja ennen päätöstä, hiljaisuus on kallista.

Viime vuosina on uskottu, että palkkiosta oppiva koulutus – kone opetetaan yrittämään ja erehtymään, ja onnistumisesta se saa pisteitä – tekisi suurista kielimalleista taitavia ”kysy ensin, tee sitten” -toimijoita. Uusi arXiv-julkaisu horjuttaa tätä uskoa: tutkijat raportoivat, että tällaiset agentit juuttuvat yllättävän usein tiedolliseen itse­lukkoon. Ne lakkaavat pyytämästä hyödyllistä lisätietoa ja vaikenevat silloinkin, kun ne eivät ymmärrä riittävästi edetäkseen.

Tutkimuksen perusajatus on arkijärjellä ymmärrettävä. Tiedonhaku, jossa koneen on aktiivisesti pyydettävä puuttuvaa tietoa, koostuu kahdesta taidosta. Ensimmäinen on kysymisen taito: mitä kannattaa kysyä seuraavaksi, jotta saa olennaista tietoa? (Tutkijat kutsuvat tätä toiminnan valinnaksi.) Toinen on muistaminen ja ymmärtäminen: miten jo saatu tieto muuttaa käsitystä ongelmasta? (Uskomuksen seuraaminen.) Jos jompikumpi ontuu, kone ei tutki maailmaa riittävästi. Ja kun se ei tutki, se ei myöskään opi kysymään paremmin eikä ymmärtämään paremmin – syntyy takaisinkytkentä, joka lukitsee järjestelmän vähätiedon tilaan.

Ajatellaan konkreettista tilannetta: tekoälyltä pyydetään suositus matkasta, mutta pyynnöstä puuttuu lähtökaupunki, ajankohta ja budjetti. Hyvä agentti aloittaisi kysymyksillä näistä kolmesta. Tiedollisesti itse­lukittunut agentti saattaa kysyä yhden satunnaisen asian, jättää kaksi olennaista väliin ja antaa sitten suosituksen, joka ei perustu riittäviin tietoihin. Vielä pahempaa on, jos se ei osaa päivittää käsitystään edes saamansa vastauksen perusteella – kuin asiakaspalvelija, joka pyytää syntymäaikaa, mutta unohtaa sen heti ja jatkaa vanhan oletuksen varassa.

Miksi näin käy? Palkkiosta oppivassa koulutuksessa palautetta annetaan usein vain lopputuloksesta: onnistuiko tehtävä vai ei. Tällainen ”maali vai ohi” -palaute voi riittää peleissä, mutta tilanteissa, joissa pitäisi kysyä matkalla oikeita kysymyksiä, se voi olla liian karkea. Jos agentti saa vain lopuksi pisteitä, se ei välttämättä opi, että juuri toinen tai kolmas tarkentava kysymys ratkaisi tehtävän – tai että kysymättä jättäminen kaatoi kaiken.

Juuri tätä uusimman tutkimuksen kirjoittajat kutsuvat tiedon itse­lukkiutumiseksi. Heidän havaintonsa ei rajoitu yhteen tehtävään: ilmiö toistui useissa aktiivista päättelyä vaativissa koejoukoissa, joissa agentin piti kerätä tehtävään liittyvää tietoa kyselemällä ja käyttää sitä päättelemiseen. Kun toiminnan valinta (mitä kysyä) ja uskomuksen seuraaminen (miten muuttaa käsitystä saadun näytön perusteella) olivat heikkoja, koulutus eksyi matalan tiedon kierteeseen.

Tutkijat ehdottavat tähän yksinkertaista vastalääkettä: palautteen uudelleen jakamista niin, että agentti saa helpon suunnan­näyttävän vihjeen jo matkalla, ei vain maalissa. He kutsuvat näitä vihjeitä suunnallisiksi arvioiksi. Ajatus on, että kevyetkin vihjeet – onko kysymys suuntaamassa oikeaan suuntaan, pitäisikö ymmärrystä päivittää tähän vai tuohon suuntaan – voivat katkaista itse­lukon. Agentti oppii sekä kysymään hyödyllisemmin että hyödyntämään kertynyttä tietoa.

Mitä tämä tuotti? Tutkimuksen mukaan seitsemällä erillisellä aineistolla tällaiset suunnalliset arviot lievensivät itse­lukkiutumista merkittävästi ja nostivat suoriutumista parhaimmillaan 60 prosenttia. Väite on tärkeä kahdesta syystä. Ensinnäkin se osoittaa, että ongelma ei ole marginaalinen. Toiseksi se vihjaa, että ratkaisu ei välttämättä edellytä raskasta uutta mallia, vaan paremmin kohdistettua palautetta.

On silti syytä lukea tulokset oikein. Vaikka kokeita oli ”laajasti”, seitsemän koejoukkoa on yhä laboratorio-olosuhde. On epäselvää, miten vihjeet tuotetaan tosielämässä ja mikä niiden hinta on – ovatko ne automaattisia tarkisteita vai edellyttävätkö ne ihmisen kevyttä arviota? Tutkijat puhuvat itse ilmiön lieventämisestä, eivät poistamisesta. Lisäksi ”enintään 60 prosenttia” kertoo huipuista, ei keskimääräisestä hyödystä kaikissa tilanteissa.

Rajoituksista huolimatta havainto on hyödyllinen muistutus siitä, että älykkäältä vaikuttava järjestelmä ei ole sama asia kuin järjestelmä, joka osaa kysyä oikeat kysymykset oikeaan aikaan – ja käyttää vastauksia hyväkseen. Pienikin muutos palautteen rakenteessa voi muuttaa oppimisen suuntaa. Tekoälyn kouluttamisessa emme siksi ehkä tarvitse aina enemmän dataa tai suurempia malleja, vaan tarkempaa ymmärrystä siitä, mitä taitoa haluamme vahvistaa: kysymistä vai ymmärtämistä – vai molempia yhtä aikaa.

Kun kielimalleista tulee yhä autonomisempia toimijoita, jotka varaavat, ehdottavat ja neuvottelevat, kyky pyytää tietoa ja omaksua se on ratkaiseva. Jos nykyisellä koulutustavalla agentti lukittuu vähäiseen tietoon, kuinka usein se lukittuu myös väärään päätökseen? Ja pitäisikö meidän opettaa koneita pyytämään apua – ei vain lopussa, vaan jokaisella askeleella?

Paper: https://arxiv.org/abs/2603.12109v1

Register: https://www.AiFeta.com

tekoäly koneoppiminen kielimallit tutkimus tekoälyagentit

Read more

Tekoälyapuria ei kannata valita pelkän esittelytekstin perusteella

Tekoälyapuria ei kannata valita pelkän esittelytekstin perusteella

Uusi vertailu osoittaa, että sanat ja teot eivät kulje käsi kädessä: oikeat koesuoritukset parantavat hakutuloksia, kun etsitään sopivaa tekoälyapuria tuhansien joukosta. Olet etsimässä verkosta apuria, joka hoitaisi puolestasi arjen askareita: täyttäisi lomakkeen, järjestäisi matkasuunnitelman tai seulisi pitkän asiakirjakasan ydinkohdat. Vastassa on valikoima, joka muistuttaa sovelluskauppaa steroideilla. Jokainen ”tekoälyagentti” lupaa paljon

By Kari Jaaskelainen
Hakutulosten kannattaa olla hyödyllisiä, ei vain samankaltaisia

Hakutulosten kannattaa olla hyödyllisiä, ei vain samankaltaisia

Kielimallien taustahaku paranee, kun osumat valitaan sen mukaan, auttavatko ne vastausta — ja se voi olla yli satakertaisesti nopeampaa kuin nykyinen tapa. Kuvittele, että kysyt työpaikan chat-robotilta: “Mitä viime kuun kokouspäiväkirjassa päätettiin etätyöpäivistä?” Robotti selaa arkistoja ja poimii sinulle pätkän, jossa toistellaan, mitä etätyö tarkoittaa. Teksti on aiheeltaan lähellä kysymystä, mutta

By Kari Jaaskelainen
Yksi malli voi pian puhua, soittaa ja kolista – pelkillä tekstiohjeilla

Yksi malli voi pian puhua, soittaa ja kolista – pelkillä tekstiohjeilla

Kun tekee kotivideota, ääni on usein suurin vaiva. Juonto syntyy yhdellä sovelluksella, taustamusiikki toisella ja ukkosen jyrinä kolmannella. Jokainen työkalu ymmärtää erilaisia komentoja, eikä mikään niistä oikein “puhu” toistensa kanssa. Lopputulos on pienen palapelityön tulos. Vuosia on ajateltu, että näin tämän kuuluukin mennä. Puhe on sanoja ja lauseita – hyvin jäsenneltyä.

By Kari Jaaskelainen
Tekoälyn kanssa pärjäämme paremmin sopimalla kuin komentamalla

Tekoälyn kanssa pärjäämme paremmin sopimalla kuin komentamalla

Puhelimesi suosittelee seuraavaa kappaletta, karttasovellus ehdottaa nopeinta reittiä, tekstinkorjaus päättää puolestasi, mitä olit ehkä sanomassa. Harva näistä järjestelmistä tottelee sinua sokeasti. Useammin huomaat itse muokkaavasi tapojasi niiden mukaan – ja ne puolestaan mukautuvat sinuun. Arkinen kokemus paljastaa: emme enää elä maailmassa, jossa kone on vain hiljainen renki. Silti puhe tekoälystä palaa

By Kari Jaaskelainen