Kun tekoälylle antaa henkilötietoja, se osaa suostutella paremmin
Uusi tutkimus viittaa siihen, että ikä ja ammatti tekevät tekoälyn viesteistä napakampia ja ilmeikkäämpiä – ja siksi vaikuttavampia.
Moni on saanut älylaitteelta lempeän tönäisyn: "Voisitko venytellä hetken?" Toisinaan sama laite kuulostaa määrätietoisemmalta: "Nyt on aika tehdä liikkeet." Pieni sävyero voi ratkaista, tartummeko toimeen vai emme.
Vallitseva ajatus on ollut, että mitä paremmin tekoäly osaa perustella terveydestä tai fysioterapiasta, sitä vakuuttavammaksi se käy. Tuore arXivissa julkaistu tutkimus ehdottaa toisenlaista asetelmaa: yksinkertaiset henkilötiedot – ikä ja aiempi ammatti – voivat tehdä keskustelevaa tekoälyä suostuttelevammaksi kuin lisäannos yleistä taustatietoa harjoittelun hyödyistä.
Tutkimus asetti ChatGPT:n kaltaisen keskustelijan fysioterapeutin rooliin ja antoi sille vaihtelevasti tietoa kuvitteellisesta potilaasta. Osassa käsikirjoitettuja keskusteluja tekoäly tiesi potilaan iän ja entisen ammatin, osassa vain fysioterapian hyödyistä, osassa molemmat, ja joskus lähes ei mitään. Kolmannet osapuolet – 27 arvioijaa – lukivat otteita näistä dialogeista ja arvioivat, miltä tekoälyn viestintä tuntui: oliko se ilmeikästä, määrätietoista ja lopulta, oliko se suostuttelevaa.
Tulokset piirsivät selkeän kuvion. Kun tekoälyllä oli käytössään potilaan ikä ja aiempi ammatti, sen viestit koettiin määrätietoisemmiksi ja ilmeikkäämmiksi. Ja juuri nämä piirteet lisäsivät viestien suostuttelevuutta. Sen sijaan lisätieto siitä, miksi fysioterapia ylipäätään auttaa, ei tehnyt viestejä yhtä vakuuttaviksi – todennäköinen syy on, että malli osasi jo valmiiksi tuottaa tällaisia perusteluja ilman erillistä muistutusta.
Yksinkertainen esimerkki havainnollistaa eroa. Kun taustatietoja ei ole, tekoäly saattaa ehdottaa varovasti: "Tänään voisi olla hyvä hetki kokeilla muutamaa liikettä." Kun se tietää hieman vastaanottajasta, sävy voi vaihtua: "Nyt tehdään ne liikkeet, jotta pääset taas portaat sujuvammin." Ensimmäinen kuulostaa ehdotukselta, toinen päätökseltä. Tutkimuksen mukaan määrätietoinen ja ilmeikäs tyyli teki viesteistä uskottavampia ja sai ne tuntumaan kannustavammilta.
Havainto on kiinnostava kahdesta syystä. Ensinnäkin se kiistää hiljaisen oletuksen, että lisää faktoja on aina parempi. Pelkkä tietopaketti fysioterapian hyödyistä ei riittänyt – ratkaisevaa oli, miten viesti kohdistettiin ihmiselle. Toiseksi se vihjaa, että tekoälyn vaikuttavuutta voi säädellä yllättävän yksinkertaisesti: rajaamalla tai avaamalla pääsyä tiettyihin tietoihin.
Tutkimuksessa analysoitiin yhteensä 13 erilaista keskustelukäsikirjoitusta, joiden perusteella arvioijat muodostivat näkemyksensä. Arvio oli siis aistimuksesta – siitä, miltä viestit tuntuivat lukijasta – ei siitä, muuttuiko kenenkään käyttäytyminen tai paraniko kenenkään polvi. Tämä on tärkeä rajaus. Vakuuttavalta kuulostava viesti ei vielä tarkoita, että ihminen todella tekee harjoitteet.
Toinen rajaus liittyy yleispätevyyteen. Tutkimus koski yhtä mallia ja yhtä kontekstia: fysioterapiaa. Vaikka keskusteleva tekoäly toistaa usein samantyyppisiä kuvioita muissakin aiheissa, tulokset eivät automaattisesti siirry vaikkapa talousneuvontaan tai ilmastokeskusteluun. Lisäksi arvioijia oli vähän, ja he tarkastelivat valmiiksi tuotettuja käsikirjoituksia, eivät aidossa tilanteessa annettuja viestejä.
Silti löydös kertoo jotakin olennaista siitä, miten nykyiset keskustelurobotit toimivat. Ne eivät vain ladon faktoja, vaan muotoilevat viestinsä sävyn sen mukaan, mitä tietävät vastaanottajasta. Henkilötieto – vieläpä varsin viaton sellainen, kuten ikä ja ammatti – ohjaa sävyä napakammaksi ja elävämmäksi, ja juuri sävy on se, mikä vaikuttaa meihin. Tämä on kaksiteräinen miekka. Oikein käytettynä sama mekanismi voi auttaa ihmistä toipumaan leikkauksesta tai jaksamaan kuntoutuksessa. Väärin käytettynä se avaa oven ohjailuun, johon emme ole antaneet suostumusta.
Tutkijoiden johtopäätös ei ole, että tekoälylle pitäisi kaataa kaikki mahdollinen tieto, vaan että tietoon pääsyä kannattaa säädellä tietoisesti. Jos järjestelmään syöttää henkilötietoja, se osaa puhua tehokkaammin. Siksi on kysyttävä: missä kulkee raja hyödyllisen personoinnin ja liiallisen vaikuttamisen välillä? Ja kuka päättää, mitä tietoja tekoäly saa käyttää – potilas, terapeutti vai sovelluksen valmistaja?
On myös käytännöllinen jatkokysymys. Jos yleisen taustatiedon lisääminen ei paranna suostuttelevuutta, mutta yksilötiedon lisääminen parantaa, millaisia ohjeita terveydenhuollon järjestelmät tarvitsevat? Yksi mahdollisuus on avoimuus: tekoälyn tulisi kertoa, mihin tietoihin se viestinsä perustaa. Toinen on minimi: käytetään vain välttämättömiä henkilötietoja ja annetaan käyttäjän valita, haluaako hän suoremman vai pehmeämmän sävyn.
Keskustelevat tekoälyt tulevat koteihin ja kuntoutussaleihin joka tapauksessa. Tämän tutkimuksen varovainen viesti on, että vaikutus ei synny vain tiedosta, vaan tavasta, jolla tieto puetaan sanoiksi – ja siitä, mitä meistä kerrotaan sanojien käyttöön. Se jättää jäljelle olennaisen kysymyksen: kuinka paljon itsestämme olemme valmiit antamaan, jotta kone osaisi tönäistä meitä juuri oikealla hetkellä?
Paper: https://arxiv.org/abs/2602.12924v1
Register: https://www.AiFeta.com
tekoäly terveys viestintä yksityisyys tutkimus