Opiskelijat kertovat tekoälyn käytöstä, kun säännöt ovat selkeät ja kohtelu reilua

Share
Opiskelijat kertovat tekoälyn käytöstä, kun säännöt ovat selkeät ja kohtelu reilua

Essee on valmis, mutta ennen palautusta järjestelmä kysyy: käytitkö tekoälyä? Klikkaus tuntuu pieneltä teolta, mutta sen seuraukset voivat olla isoja. Saako huonomman arvosanan, jos vastaa rehellisesti? Vai herättääkö vaikeneminen epäilyjä myöhemmin? Moni opiskelija tasapainoilee tämän arjen kysymyksen kanssa.

Arvattava vastaus on ollut, että ilmoittaminen on kiinni yksilön rehellisyydestä. Tuore esijulkaisu kuitenkin vihjaa toiseen suuntaan: avoimuus riippuu ennen kaikkea siitä, millaisen viestin oppilaitos ja opettajat antavat. Jos säännöt ovat selkeät ja kohtelu tuntuu reilulta, opiskelijat kertovat tekoälyn käytöstä. Jos tunnelma on epävarma ja rangaistuksen pelko leijuu ilmassa, suu pysyy supussa.

Tämä käy ilmi kysely- ja haastatteluaineistosta, jossa kartoitettiin satojen yliopisto-opiskelijoiden halukkuutta kertoa tekoälyn käytöstä opinnoissa. Kyselyyn vastasi 546 opiskelijaa, ja lisäksi 22 opiskelijaa haastateltiin. Tulokset ovat yksinkertaisia ilman ammattitermien viidakkoa: kokemus siitä, ettei rehellisyydestä rangaista – psykologinen turvallisuus – lisäsi selvästi halua ilmoittaa tekoälyn käytöstä. Sitä vahvistivat opiskelijoiden kokema reiluus arvioinnissa, opettajan tuki ja tunne siitä, että oppilaitos tukee ja selkeyttää toimintatapoja.

Vastavoima oli yhtä selkeä. Arviointipelko – huoli siitä, että opettaja katsoo vinoon, arvosana laskee tai leimautuu huijariksi – vähensi halua kertoa ja söi turvallisuuden tunnetta. Tähän pelkoon taas kytkeytyivät koettu stigma (“tekoälyn käyttäjä on laiska”), epävarmuus siitä, mikä on sallittua, sekä yksityisyydensuoja: minne ilmoitus tallentuu ja kuka sitä näkee?

Yksinkertainen esimerkki riittää valaisemaan eron. Kuvitellaan kurssi, jossa opettaja sanoo: saa käyttää tekoälyä ideoiden kokoamiseen ja kielenhuoltoon, kunhan merkitsee avun näkyviin. Arviointikriteerit on avattu, ja palautetta annetaan siitä, miten opiskelija käyttää välinettä harkiten. Tällaisessa ympäristössä opiskelijat kuvailevat olevansa valmiita kertomaan käytöstään – se on osa oppimisprosessia, ei rike.

Toisessa kurssissa säännöt ovat ympäripyöreitä: “tekoäly on pääosin kielletty.” Mikä on “pääosin”? Saako käyttää oikolukuun? Entä ideointiin? Kun lisäksi kiertää huhuja siitä, että tekoälyn käyttö pudottaa arvosanan automaattisesti, moni alkaa ilmoittaa “varovaisesti”: mainitsee käytön vain, jos on aivan pakko, tai muotoilee kertomuksensa niin, ettei siitä voi koitua haittaa. Haastattelut kuvasivat tällaista varovaista tai strategista avoimuutta – ja joskus suoraa vaikenemista – silloin, kun opiskelijat pelkäsivät kielteistä seurausta.

Tutkimus jäsensi ilmiötä kolmessa kerroksessa, jotka ovat kaikille tuttuja ilman teoreettisia koukeroita: mitä opiskelija ajattelee (ovatko säännöt reilut ja selkeät), mitä hän tuntee (onko olo turvallinen vai pelokas) ja mitä hän aikoo tehdä (ilmoittaako käytöstä vai ei). Ajatukset, tunteet ja teot kietoutuvat toisiinsa. Kun reiluus ja tuki vahvistavat turvallisuuden tunnetta, avoimuus on todennäköisempää. Kun epävarmuus ja leimaamisen pelko valtaavat mielen, ilmoitushalukkuus hiipuu.

On tärkeää huomata, mistä tässä nimenomaan ei ole kyse. Tulokset eivät väitä, että tekoälyn käyttö olisi itsessään ongelma tai ongelmatonta, eikä neuvota, missä raja sallittavan ja kielletyn välillä pitäisi kulkea. Ne käsittelevät vain yhtä siivua laajemmasta pulmakakusta: miten saada opiskelijat kertomaan, mitä he ovat tehneet. Tämän siivun osalta viesti on yllättävän maanläheinen: selkeys ja tuki synnyttävät avoimuutta paremmin kuin uhkailu.

Kaikilla tutkimuksilla on rajoitteensa, eikä tämä ole poikkeus. Aineisto perustuu itsearvioihin: ihmiset kertovat, mitä ajattelevat ja tekevät, mutta se ei aina täysin vastaa todellista käyttäytymistä. Kysely mittaa yhteyksiä, ei todista syy-seurausta. Haastatteluja on vähän, ja ne valottavat kokemuksia enemmän kuin niiden yleisyyttä. Lisäksi kyse on esijulkaisusta, joka ei vielä ole käynyt läpi vertaisarviointia. Silti kuvio, jossa selkeys ja tuki lisäävät avoimuutta ja epävarmuus sitä vähentää, on koherentti ja sopii monen arkihavaintoihin.

Mitä tästä seuraa käytännössä? Tutkimuksen perusteella kolme asiaa näyttävät ratkaisevilta. Ensinnäkin selkeät säännöt: mitä saa tehdä tekoälyllä, mitä ei, ja miten käyttö merkitään. Toiseksi reilu arviointi: opiskelijat uskovat avoimuuteen, jos he uskovat, ettei rehellisyydestä sakoteta. Kolmanneksi arjen ohjaus: opettajan myönteinen, ohjaava asenne vaikuttaa enemmän kuin juliste käytävän seinällä. Vastapuolella ovat epämääräiset ohjeet, leimaava puhetapa ja tunne siitä, että pienikin lipsahdus kostautuu.

Vaikutus ei rajoitu luokkahuoneeseen. Kun tekoäly yleistyy työpaikoilla, samat kysymykset nousevat esiin: pitääkö kertoa, jos raportin luonnosteli kone? Rakentaako organisaatio kulttuuria, jossa vastuullinen avoimuus on mahdollista? Yliopistot ovat hyvissä ja huonoissa esimerkissä usein yhteiskunnan harjoituskenttä.

Lopulta kysymys on luottamuksesta. Jos haluamme tietää, milloin ja miten tekoäly on ollut apuna, olemmeko valmiita luomaan ympäristöjä, joissa rehellisyys on turvallista – myös silloin, kun vastaus ei miellytä?

Paper: https://arxiv.org/abs/2604.21733v1

Register: https://www.AiFeta.com

korkeakoulutus tekoäly oppiminen etiikka tiede

Read more

Tekoälyapuria ei kannata valita pelkän esittelytekstin perusteella

Tekoälyapuria ei kannata valita pelkän esittelytekstin perusteella

Uusi vertailu osoittaa, että sanat ja teot eivät kulje käsi kädessä: oikeat koesuoritukset parantavat hakutuloksia, kun etsitään sopivaa tekoälyapuria tuhansien joukosta. Olet etsimässä verkosta apuria, joka hoitaisi puolestasi arjen askareita: täyttäisi lomakkeen, järjestäisi matkasuunnitelman tai seulisi pitkän asiakirjakasan ydinkohdat. Vastassa on valikoima, joka muistuttaa sovelluskauppaa steroideilla. Jokainen ”tekoälyagentti” lupaa paljon

By Kari Jaaskelainen
Hakutulosten kannattaa olla hyödyllisiä, ei vain samankaltaisia

Hakutulosten kannattaa olla hyödyllisiä, ei vain samankaltaisia

Kielimallien taustahaku paranee, kun osumat valitaan sen mukaan, auttavatko ne vastausta — ja se voi olla yli satakertaisesti nopeampaa kuin nykyinen tapa. Kuvittele, että kysyt työpaikan chat-robotilta: “Mitä viime kuun kokouspäiväkirjassa päätettiin etätyöpäivistä?” Robotti selaa arkistoja ja poimii sinulle pätkän, jossa toistellaan, mitä etätyö tarkoittaa. Teksti on aiheeltaan lähellä kysymystä, mutta

By Kari Jaaskelainen
Yksi malli voi pian puhua, soittaa ja kolista – pelkillä tekstiohjeilla

Yksi malli voi pian puhua, soittaa ja kolista – pelkillä tekstiohjeilla

Kun tekee kotivideota, ääni on usein suurin vaiva. Juonto syntyy yhdellä sovelluksella, taustamusiikki toisella ja ukkosen jyrinä kolmannella. Jokainen työkalu ymmärtää erilaisia komentoja, eikä mikään niistä oikein “puhu” toistensa kanssa. Lopputulos on pienen palapelityön tulos. Vuosia on ajateltu, että näin tämän kuuluukin mennä. Puhe on sanoja ja lauseita – hyvin jäsenneltyä.

By Kari Jaaskelainen
Tekoälyn kanssa pärjäämme paremmin sopimalla kuin komentamalla

Tekoälyn kanssa pärjäämme paremmin sopimalla kuin komentamalla

Puhelimesi suosittelee seuraavaa kappaletta, karttasovellus ehdottaa nopeinta reittiä, tekstinkorjaus päättää puolestasi, mitä olit ehkä sanomassa. Harva näistä järjestelmistä tottelee sinua sokeasti. Useammin huomaat itse muokkaavasi tapojasi niiden mukaan – ja ne puolestaan mukautuvat sinuun. Arkinen kokemus paljastaa: emme enää elä maailmassa, jossa kone on vain hiljainen renki. Silti puhe tekoälystä palaa

By Kari Jaaskelainen