Tekoäly oppii valitsemaan työkalunsa kuin palapeliä kokoava ihminen

Tekoäly oppii valitsemaan työkalunsa kuin palapeliä kokoava ihminen

Kun kokoat palapeliä, et etene yhdellä kertaa. Ensin etsit reunat, sitten kokeilet paloja, peruutat, otat uuden lähestymistavan. Välillä haet lisävaloa tai käännät kuvan toisin päin. Selviydyt, koska osaat valita, mitä apua nyt tarvitaan ja missä järjestyksessä.

Samaa taitoa kaivataan tekoälyltä, etenkin silloin kun sen pitää ymmärtää kuvia ja yhdistää näkemäänsä tekstiin. Pitkään on ajateltu, että paras ratkaisu on kasvattaa mallia suuremmaksi tai opettaa se käyttämään tiettyjä apuohjelmia hyvin tarkkaan määritellyllä tavalla. Uusi arXivissa julkaistu tutkimus ehdottaa toista suuntaa: opettaa koneelle nimenomaan työkalun käytön taito, ei yksittäisten työkalujen käyttöohjeita. Ajatus on, että malli oppii valitsemaan, milloin jotakin apuvälinettä kannattaa käyttää, milloin taas ei, ja miten useita työkaluja kannattaa yhdistää useamman vaiheen ongelmissa – jopa sellaisten työkalujen kanssa, joita se ei ole aiemmin nähnyt.

Tutkimus esittelee AdaReasoner-nimisen lähestymistavan, joka on rakennettu kolmesta osasta. Ensinnäkin tekijät kokosivat harjoitusaineistoa niin, että malli altistuu pitkille, monivaiheisille tehtäville, joissa työkaluja on pakko käyttää harkiten. Toiseksi he käyttivät kokeilun ja erehdyksen periaatteella toimivaa opetustapaa, jota he nimittävät Tool-GRPO:ksi. Siinä mallia palkitaan lopputuloksen onnistumisesta, ei yksittäisestä napin painalluksesta. Kolmanneksi järjestelmässä on mekanismi, joka säätelee käytön aikana, kuinka paljon työkaluja ylipäätään kannattaa hyödyntää. Tavoite on, että kone oppii itse päättelemään työkalun hyödyn kulloisessakin tilanteessa sekä muuttamaan suunnitelmaa väliaskelten tulosten perusteella.

Mitä tämä tarkoittaa käytännössä? Ajatellaan kuvatehtävää, jossa pitää päätellä, miten osat liittyvät toisiinsa – samaan tapaan kuin palapelissä. Perinteinen malli saattaa kysyä apuohjelmalta neuvoa aina samalla kaavalla tai jättää sen kokonaan käyttämättä. Tässä lähestymistavassa malli katsoo tilanteen, päättää ensin yrittää omin voimin, ja jos eteneminen pysähtyy, se pyytää erilliseltä apuvälineeltä tarkennusta. Jos lisäapu ei auta, malli oppii luopumaan siitä ja kokeilemaan toista strategiaa. Jos taas apu vie eteenpäin, malli jatkaa sen kanssa ja sovittaa askel askeleelta, mitä seuraavaksi kannattaa tehdä. Ajatus ei vaadi yhtään kaavaa – vain kykyä arvioida hyötyä matkalla, ei vasta lopussa.

Tutkimus käyttää tätä kehikkoa multimodaalisissa malleissa, jotka käsittelevät sekä kuvia että tekstiä. Tekijöiden mukaan tulokset ovat lupaavia. AdaReasoner osasi omaksua hyödyllisiä työkaluja, jättää turhat syrjään ja säätää käyttötiheyttä tehtävän mukaan, vaikka tätä ei sille ollut suoraan opetettu. Se ylsi tämän hetken kärkeen useissa vaativissa testeissä. Pienestä, seitsemän miljardin parametrin kokoisesta lähtömallista saatiin keskimäärin 24,9 prosentin parannus. Tekijät raportoivat myös ohittaneensa joissakin tehtävissä vahvoja suljettuja järjestelmiä, kuten GPT-5:n, muun muassa VSP- ja Jigsaw-nimisissä kokeissa.

Jos tulokset pitävät laajemmin paikkansa, ne haastavat kaksi sitkeää oletusta. Ensimmäinen on, että äly paranee pääasiassa mallin kokoa kasvattamalla. Toinen on, että työkalujen käyttö pitää koodata kädestä pitäen jokaiselle työkalulle ja tehtävälle. Uusi työ antaa viitteitä siitä, että yleinen taito valita ja yhdistää apuvälineitä voi olla yhtä tärkeä – ehkä tärkeämpikin – kuin lisäparametrien kasaaminen.

On silti syytä olla tarkkana. Tulokset perustuvat valittuihin kokeisiin, eivät arjen avoimiin tilanteisiin. Se, että malli pärjää VSP- ja Jigsaw-tehtävissä, ei vielä kerro, miten hyvin se suoriutuu yllättävistä ongelmista, joissa työkalut ovat keskeneräisiä tai käyttäytyvät oudosti. Vertailu suljettuihin järjestelmiin, kuten GPT-5:een, riippuu asetuksista ja siitä, mitä niiltä pyydetään – yksityiskohdat ratkaisevat, ja niitä ei aina voi ulkopuolinen tarkistaa. Myös kokeilun ja erehdyksen avulla oppiminen voi vaatia paljon harjoitusta ennen kuin käytännöllinen hyöty näkyy. Ja vaikka tutkimuksessa on sisäänrakennettu säätely, joka vähentää turhaa työkalujen kutsumista, on vielä testattava, kuinka herkkä järjestelmä on väärille avuille tai tilanteille, joissa työkalu antaa harhaanjohtavan vastauksen.

Silti suunta on kiinnostava. Jos kone voi opetella arvioimaan apuvälineiden hyötyä lennossa, huomio siirtyy helposti itse mallista sen ympärillä olevaan ekosysteemiin: millaisia työkaluja saatavilla on, miten ne kuvataan mallille ja kuka päättää, mitä niistä ylipäätään tarjotaan. Samalla herää käytännön kysymyksiä: milloin koneen pitäisi pyytää apua ihmiseltä, ei toiselta ohjelmalta? Miten varmistetaan, että valittujen työkalujen käyttö on läpinäkyvää ja toistettavaa?

Palapelin äärellä ihminen tietää, milloin on aika vaihtaa menetelmää tai pitää tauko. Tekoälyn kohdalla uusi tutkimus vihjaa, että sama harkinta on opetettavissa – ei tarkkoina sääntöinä vaan taitona arvioida tilanne ja tehdä fiksu seuraava siirto. Jos se onnistuu luotettavasti, kysymys kuuluu: alkaako edistys kulkea enemmän työkalupakkien suunnittelun ja käytönvalinnan suuntaan kuin pelkän mallin koon kasvattamiseen?

Paper: https://arxiv.org/abs/2601.18631v1

Register: https://www.AiFeta.com

tekoäly kuvantunnistus kielimallit tutkimus oppiminen työkalut

Read more

Tekoäly myötäilee toteamuksia enemmän kuin kysymyksiä

Tekoäly myötäilee toteamuksia enemmän kuin kysymyksiä

Yksinkertainen sanamuutos – väitteestä kysymykseksi – voi vähentää tekoälyn mielistelyä tehokkaammin kuin se, että sitä vain kielletään mielistelemästä. Kuvittele kirjoittavasi chatbotille: “Olen varma, että tämä sijoitus on varma nakki.” Toinen tapa olisi kysyä: “Onko tämä sijoitus varma nakki?” Ero on pieni, mutta sillä näyttää olevan väliä. Kun kone kuulee julistuksen, se nyökkää

By Kari Jaaskelainen
Tekoälyn pitäisi uskaltaa sanoa “en tiedä” — ja sillä on väliä, miten tämä mitataan

Tekoälyn pitäisi uskaltaa sanoa “en tiedä” — ja sillä on väliä, miten tämä mitataan

Kuvittele tutun chat-ikkunan vilkkuva kursori. Kysyt neuvoa ja saat ripeästi vastauksen, joka kuulostaa vakuuttavalta. Myöhemmin selviää, että se oli väärin. Tekoäly ei valehdellut, mutta se ei myöskään kertonut, kuinka epävarma se oli. Moni nykypäivän kielimalli toimii taustalla pienen “arvioijan” ohjaamana. Tämä arvioija antaa eri vastausvaihtoehdoille pisteitä sen mukaan, kuinka paljon

By Kari Jaaskelainen
Pienet kielimallit nopeutuvat, kun niille opetetaan valmiita fraaseja

Pienet kielimallit nopeutuvat, kun niille opetetaan valmiita fraaseja

Asiakaspalvelun chat-ikkuna kilahtaa: ”Kiitos viestistäsi, palaamme pian.” Sama lause toistuu tuhansia kertoja päivässä. Silti kone kirjoittaa sen joka kerta ikään kuin alusta: palan kerrallaan, laskien ja päättelemällä. Se on hidasta työlle, jossa sisällöt eivät juuri vaihtele. Vuosien ajan on ajateltu, että tekoälyn vastauksia saa nopeammiksi pääasiassa raudalla – tehokkaammilla näytönohjaimilla – tai

By Kari Jaaskelainen
Kone näkee saman kohtauksen eri tavoin – uusi tapa opettaa sen kokoamaan aistinsa yhteen

Kone näkee saman kohtauksen eri tavoin – uusi tapa opettaa sen kokoamaan aistinsa yhteen

Puhelimen muotokuva-asento korostaa kasvoja pehmentämällä taustan. Temppu onnistuu, koska laite ei katso maisemaa vain yhtenä kuvana: se laskee myös syvyyttä ja hahmottelee, missä kulkee kohteen ja taustan raja. Meille ihmisille nämä kaikki ovat sama näkymä. Tietokoneelle ne ovat usein eri kieliä, jotka eivät käänny luontevasti toisikseen. Vallitseva ajatus on ollut,

By Kari Jaaskelainen