Hyvin muotoiltu ohje tekee tekoälystä paremman kysyjän
Kun koulussa yleistyvä tekoäly osaa kysyä oikealla tavalla, oppija saa selkeämpiä, keskustelua tukevia ja ikätasolle sopivia jatkokysymyksiä – ja niitä voi kehittää nyt myös näytönvaraisesti, ei vain arvailemalla.
Kuvittele peruskoululainen, joka on juuri tiivistänyt lukemansa tekstin. Ruudulla odottaa tekoäly, jonka pitäisi esittää jatkokysymys. Kysyykö se ympäripyöreästi “Mitä mieltä olit?”, vai ohjaako se takaisin tekstiin ja omaan ajatteluun: “Mikä kohta sai sinut päätymään tuohon tiivistykseen?” Näiden kahden kysymyksen vaikutus oppimiseen on eri maailmoista.
Tekoälyn käyttäytymistä ohjataan lyhyillä ohjeilla – muutamalla virkkeellä, joilla kerrotaan, millainen rooli sen tulisi ottaa ja miten vastata. Niitä on tähän asti hiottu pitkälti näppituntumalla: kokeilemalla erilaisia sanamuotoja ja toivomalla parasta. Uusi tutkimus osoittaa, että ohjeita voi myös arvioida järjestelmällisesti ja perustellusti, aivan kuten oppimateriaaleja tai opetusmenetelmiä.
Taustalla on yksinkertainen ajatus: jos haluamme, että tekoäly tukee oppimista, meidän pitää mitata, millaiset ohjeet tuottavat parempia kysymyksiä. Tutkimuksessa laadittiin kuusi erilaista ohjerunkoa, joista kukin painotti erilaista pedagogista lähestymistapaa. Yksi saattoi korostaa selkeää muotoa, toinen vuoropuhelun jatkuvuutta, kolmas oppilaan omaa ohjautuvuutta. Ohjeet eivät jääneet laboratorioon, vaan niitä testattiin 120 aidossa käyttäjätilanteessa kolmessa erillisessä opetusympäristössä.
Arviointi tehtiin turnauksen tapaan: kahdeksan arvioijaa vertasi pareittain tekoälyn tuottamia jatkokysymyksiä. He katsoivat kolmea asiaa: ovatko kysymykset selkeästi muotoiltuja, edistävätkö ne keskustelua, ja sopivatko ne oppilaille. Pisteytykseen käytettiin shakin tulosten arviointiin kehitettyä järjestelmää muistuttavaa laskentaa. Näin eri ohjeiden vahvuudet ja heikkoudet tulivat esiin ilman, että tarvittiin pitkiä kokeita tai monimutkaisia testejä luokkahuoneessa.
Tulos oli yllättävän selkeä. Yksi ohjeista erottui selvästi edukseen. Se perustui niin sanottuun strategiseen lukemiseen – taitoon tarkastella tekstiä tietoisesti ja ohjata omaa ajattelua. Ohje käski tekoälyn omaksua tietyn roolin, käytännössä rauhallisen lukuvalmentajan, ja muistutti sitä hyödyntämään keskustelun aiempaa sisältöä ja tavoitteita. Kun tämä ohje asetettiin kilpakumppaneitaan vastaan, se voitti parivertailuissa 81–100 prosentin todennäköisyydellä.
Miksi juuri tällainen ohje toimii? Koska se suuntaa fokuksen siihen, mikä lukemisessa on olennaista: perusteluihin ja ymmärtämiseen, ei vain oikeaan vastaukseen. Tämän kaltaiset kysymykset – jotka pyytävät palaamaan tekstiin, avaamaan ajattelun kulkua ja ottamaan vastuuta oppimisesta – tukevat taitoa ohjata itse omaa opiskelua. Kun tekoäly esittää tällaisia tarkentavia, omaa ajattelua näkyväksi tekeviä kysymyksiä, oppija ei jää yksin tai harhaile yleispuheen varaan.
On tärkeää huomata, että tutkimuksen kiinnostavin anti ei ole yksittäisen ohjeen “voitto”, vaan itse menettelytapa. Sen avulla koulut ja oppimissovellusten tekijät voivat järjestelmällisesti testata, millaiset ohjeet tuottavat halutunlaista vuorovaikutusta. Kyse on askeleesta pois arvaamisesta kohti näyttöön perustuvaa kehittämistä: jos tavoitteena on esimerkiksi tukea omatoimista oppimista, voidaan valita ohjeita, joiden on osoitettu ohjaavan kysymyksiä siihen suuntaan.
Samalla pitää olla rehellinen rajoituksista. Arvioinnin kohteena olivat nimenomaan jatkokysymykset yhdessä rajatussa keskustelutehtävässä. Se ei vielä kerro, parantavatko paremmat kysymykset oppimistuloksia pitkällä aikavälillä tai eri oppiaineissa. Arvioijina toimivat asiantuntijat, eivät oppilaat, joten arviot kuvaavat laadun piirteitä, eivät oppijoiden kokemuksia. Testi tehtiin kolmessa käyttöympäristössä ja 120 vuorovaikutuksessa – aitoja tilanteita, mutta silti rajallinen otos. Lisäksi tulokset voivat riippua käytetystä kielimalleja ohjaavasta taustajärjestelmästä ja siitä, millaisessa koulukontekstissa kysymykset esitetään.
Menetelmä on kuitenkin muunneltavissa. Turnausvertailu voidaan kohdistaa muihinkin tehtäviin kuin lukemisen tukeen: esimerkiksi matematiikan välivaiheiden kysymiseen tai kielten sanaston kertaamiseen. Ja koska arviointi perustuu pareittain tehtyihin valintoihin selkeiden kriteerien mukaan, se ei vaadi massiivisia koejärjestelyjä. Tämä madaltaa kynnystä tuoda kouluihin läpinäkyvää tapaa säätää tekoälyä pedagogisesti perustelluksi.
Kun tekoäly yleistyy opettajan apurina, kysymys ei ole enää vain siitä, mikä malli on uusin tai nopein. Tärkeämpää on, miten malli käyttäytyy luokassa: mitä se kysyy, miten se kuuntelee ja millaista ajattelua se vahvistaa. Nyt tarjolla on ensimmäisiä työkaluja, joilla tätä voi mitata ja parantaa.
Jäljelle jää iso, käytännöllinen kysymys. Jos ohjeiden laatu ratkaisee, pitäisikö kouluilla olla yhteiset, testatut ohjekokoelmat eri tehtäviin – ja kuka niitä päivittää? Tekoälystä on tulossa oppimisen kaasu- tai jarrupoljin sen mukaan, miten sitä ohjataan. Kenen vastuulla on varmistaa, että poljinta painetaan oikeaan suuntaan?
Paper: https://arxiv.org/abs/2601.16134v1
Register: https://www.AiFeta.com
koulutus tekoäly oppiminen tutkimus kielimallit