Keskusteleva opettajarobotti toimii oikein vasta, kun se tuntee itsensä, opiskelijan ja kurssin
Myöhäinen ilta kirjastossa: kurssin loppukoe lähestyy ja opiskelija pyytää apua pöydällä seisovalta pieneltä robotilta. Robotti vastaa sujuvasti ja kannustaa, mutta hetken päästä antaa itsevarmasti väärän neuvon ja ehdottaa, että opiskelija jakaisi lisää henkilökohtaisia tietojaan, jotta neuvoista tulisi "yksilöllisempiä". Hetki kuvaa generatiivisten, keskustelemaan kykenevien opetusrobottien lupausta ja ongelmaa: ne ovat valmiita puhumaan, mutta tietävätkö ne, mitä niiden pitäisi tietää – ja mitä ei?
Viime vuodet koulutusteknologiassa on puhuttu siitä, miten tekoälyratkaisut käyttäytyvät: niiden pitäisi olla turvallisia, läpinäkyviä ja eettisiä. Vähemmälle huomiolle on jäänyt arkisempi kysymys: millaista tietoa tällainen järjestelmä tarvitsee ylipäätään toimiakseen fiksusti luokkahuoneessa? Tuore arXivissa julkaistu artikkeli ehdottaa, että ongelman ydin ei ole vain säännöissä ja käytöksessä, vaan tietopohjassa. Jos tietopohja on väärä, hatara tai liian utelias, robotti neuvoo pieleen, sitouttaa väärin tai rikkoo yksityisyyttä.
Tutkimuksessa haastateltiin kahtatoista yliopisto-opiskelijaa ja -opettajaa. Näiden puolistrukturoitujen haastattelujen pohjalta koottiin kaksitoista vaatimusta, jotka liittyvät kolmeen tietolajiin: robotti itse, sen käyttäjä ja opiskeluympäristö. Ajatus on yksinkertainen mutta terävä: opettajarobotti ei saavuta tavoitteitaan, ellei se samalla tiedä oikeita asioita itsestään, opiskelijasta ja kontekstista, jossa se toimii.
Ensimmäinen tietolaji on tieto omasta roolista ja tyylistä. Robotti tarvitsee selkeän käsityksen siitä, millainen "persoonallisuus" siltä odotetaan – jämäkkä mutta ystävällinen, tunnollinen ja toisaalta muokattava. Rooli ei ole pysyvä leima, vaan se pitäisi voida säätää: on eri asia toimia kokeeseen valmentavana porautujana kuin lempeänä keskustelukumppanina, joka auttaa jäsentämään ajatuksia.
Toinen on tieto käyttäjästä. Opiskelijan oppimistavoitteet, tämänhetkinen edistyminen, mikä häntä motivoi, millainen on tunnetila ja millainen tausta vaikuttavat siihen, mikä neuvo on hyödyllinen ja mikä taittaa innon. Näiden tietojen ei tarvitse olla arkaluonteisia yksityiskohtia elämästä, mutta ilman jonkinlaista kuvaa tavoitteista ja vireestä robotti sorvaa helposti liian yleispäistä tai väärään kohtaan osuvaa apua.
Kolmas on tieto kontekstista: kurssin oppimateriaalit, käytetyt opetusstrategiat, aikataulut ja arvioinnin tavat sekä jopa fyysisen tilan olosuhteet. On eri asia neuvoa opiskelijaa, joka tekee pakollista ennakkotehtävää verkossa, kuin opiskelijaa, joka on laboratoriossa meluisan laitteen vieressä. Robotti, joka tietää missä ja miten opiskelu tapahtuu, voi valita tavan esittää asiat: joskus lyhyt selkeä tiivistelmä on parempi kuin höpöttävä keskustelu.
Yksi esimerkki tekee eron näkyväksi. Kuvitellaan, että opiskelija valmistelee seminaariesitelmää. Robotti, joka tuntee oman roolinsa ("sparraaja, joka pitää keskustelun napakkana"), tietää opiskelijan tavoitteen (harjoitella avausta, joka jännittää), hahmottaa tunnetilan (pientä stressiä) ja tunnistaa kontekstin (kurssin ohje: viisi minuuttia, lähteet annetuista artikkeleista, avoin opetustila jossa on melua), voi toimia näin: se pyytää opiskelijaa harjoittelemaan kahdesti, antaa konkreettisen palautteen rangasta ja ajasta, ehdottaa äänenkäytön korjausta melua varten ja muistuttaa, että esityksessä tulee viitata nimenomaan kurssin materiaaliin. Sama robotti ilman näitä tietoja saattaa kehua mitäänsanomattomasti, venyttää harjoituksen väärään mittaan ja ehdottaa verkosta löytyvää lähdettä, joka ei kelpaa.
Tutkimus asettaa tämän kolmijaon vasten aiempaa ajattelua. Aiemmin huomio on usein ollut siinä, millaisia ominaisuuksia tai "hyviä tapoja" opettajarobotilta odotetaan. Nyt painopiste siirtyy siihen, mitä tietoa tarvitaan, jotta näitä tapoja voidaan ylipäätään toteuttaa luotettavasti. Taustalla on arki: generatiiviset mallit innostuvat keksimään omiaan, opiskelijat voivat nojata liikaa automaattiapuun, ja yksityisyys voi rikkoutua, jos järjestelmä alkaa kysellä liikaa – riskit, joista myös artikkeli muistuttaa.
Todiste ei ole suuri käyttäjäkokeilu, vaan huolellisesti koottu kuva toiveista ja huolista, joita yliopistoissa jo nyt on. Kaksitoista haastattelua ei tietenkään kata koko korkeakoulukenttää, eivätkä vaatimukset vielä kerro, miten järjestelmä rakennetaan tai toimiiko se oikeissa luokissa. Tekijät esittävätkin työn alustana suunnittelulle ja tuleville arvioinneille: yhteisen listan siitä, mitä tietoja tarvitaan, jotta pedagogiset ja eettiset odotukset voisivat ylipäätään kohdata teknologian kyvyt.
Rajoituksia ja avoimia kysymyksiä riittää. Miten robotti hankkii luotettavasti tietoa opiskelijan motivaatiosta tai tunnetilasta – ja kuinka vähän on tarpeeksi? Miten kurssikohtainen tieto pidetään ajan tasalla? Kenen vastuulla on päättää robotin roolista tilanteen mukaan? Ja ennen kaikkea: miten varmistetaan, että henkilötiedot, oppimishistoria ja tunneviitteet eivät valu minnekään minne niiden ei pitäisi? Kun järjestelmä tarvitsee enemmän tietoa toimiakseen paremmin, kasvaa myös riski tietoturvaloukkauksista ja ylivalvonnasta.
Silti oivallus on hyödyllinen jo nyt. Keskustelevaa konetta ei kannata arvioida vain sen mukaan, miten kohteliaasti se vastaa, vaan sen mukaan, mitä se tietää ja mitä sen on annettu tietää. Kolme yksinkertaista kysymystä – tunteeko se roolinsa, opiskelijan ja kontekstin – voi auttaa erottamaan leikkikalun oppimiskumppanista.
Yliopistot pohtivat parhaillaan, mihin tekoälyä kannattaa käyttää. Jos opettajarobotit yleistyvät, niiden on opittava paljon muutakin kuin seuraava lause. Kysymys kuuluu: kuinka paljon me haluamme, että ne oppivat meistä?
Paper: https://arxiv.org/abs/2602.12873v1
Register: https://www.AiFeta.com
tekoäly koulutus robotit yliopisto oppiminen tietosuoja