Kun tekoälylle antaa henkilötietoja, se osaa suostutella paremmin

Kun tekoälylle antaa henkilötietoja, se osaa suostutella paremmin

Uusi tutkimus viittaa siihen, että ikä ja ammatti tekevät tekoälyn viesteistä napakampia ja ilmeikkäämpiä – ja siksi vaikuttavampia.

Moni on saanut älylaitteelta lempeän tönäisyn: "Voisitko venytellä hetken?" Toisinaan sama laite kuulostaa määrätietoisemmalta: "Nyt on aika tehdä liikkeet." Pieni sävyero voi ratkaista, tartummeko toimeen vai emme.

Vallitseva ajatus on ollut, että mitä paremmin tekoäly osaa perustella terveydestä tai fysioterapiasta, sitä vakuuttavammaksi se käy. Tuore arXivissa julkaistu tutkimus ehdottaa toisenlaista asetelmaa: yksinkertaiset henkilötiedot – ikä ja aiempi ammatti – voivat tehdä keskustelevaa tekoälyä suostuttelevammaksi kuin lisäannos yleistä taustatietoa harjoittelun hyödyistä.

Tutkimus asetti ChatGPT:n kaltaisen keskustelijan fysioterapeutin rooliin ja antoi sille vaihtelevasti tietoa kuvitteellisesta potilaasta. Osassa käsikirjoitettuja keskusteluja tekoäly tiesi potilaan iän ja entisen ammatin, osassa vain fysioterapian hyödyistä, osassa molemmat, ja joskus lähes ei mitään. Kolmannet osapuolet – 27 arvioijaa – lukivat otteita näistä dialogeista ja arvioivat, miltä tekoälyn viestintä tuntui: oliko se ilmeikästä, määrätietoista ja lopulta, oliko se suostuttelevaa.

Tulokset piirsivät selkeän kuvion. Kun tekoälyllä oli käytössään potilaan ikä ja aiempi ammatti, sen viestit koettiin määrätietoisemmiksi ja ilmeikkäämmiksi. Ja juuri nämä piirteet lisäsivät viestien suostuttelevuutta. Sen sijaan lisätieto siitä, miksi fysioterapia ylipäätään auttaa, ei tehnyt viestejä yhtä vakuuttaviksi – todennäköinen syy on, että malli osasi jo valmiiksi tuottaa tällaisia perusteluja ilman erillistä muistutusta.

Yksinkertainen esimerkki havainnollistaa eroa. Kun taustatietoja ei ole, tekoäly saattaa ehdottaa varovasti: "Tänään voisi olla hyvä hetki kokeilla muutamaa liikettä." Kun se tietää hieman vastaanottajasta, sävy voi vaihtua: "Nyt tehdään ne liikkeet, jotta pääset taas portaat sujuvammin." Ensimmäinen kuulostaa ehdotukselta, toinen päätökseltä. Tutkimuksen mukaan määrätietoinen ja ilmeikäs tyyli teki viesteistä uskottavampia ja sai ne tuntumaan kannustavammilta.

Havainto on kiinnostava kahdesta syystä. Ensinnäkin se kiistää hiljaisen oletuksen, että lisää faktoja on aina parempi. Pelkkä tietopaketti fysioterapian hyödyistä ei riittänyt – ratkaisevaa oli, miten viesti kohdistettiin ihmiselle. Toiseksi se vihjaa, että tekoälyn vaikuttavuutta voi säädellä yllättävän yksinkertaisesti: rajaamalla tai avaamalla pääsyä tiettyihin tietoihin.

Tutkimuksessa analysoitiin yhteensä 13 erilaista keskustelukäsikirjoitusta, joiden perusteella arvioijat muodostivat näkemyksensä. Arvio oli siis aistimuksesta – siitä, miltä viestit tuntuivat lukijasta – ei siitä, muuttuiko kenenkään käyttäytyminen tai paraniko kenenkään polvi. Tämä on tärkeä rajaus. Vakuuttavalta kuulostava viesti ei vielä tarkoita, että ihminen todella tekee harjoitteet.

Toinen rajaus liittyy yleispätevyyteen. Tutkimus koski yhtä mallia ja yhtä kontekstia: fysioterapiaa. Vaikka keskusteleva tekoäly toistaa usein samantyyppisiä kuvioita muissakin aiheissa, tulokset eivät automaattisesti siirry vaikkapa talousneuvontaan tai ilmastokeskusteluun. Lisäksi arvioijia oli vähän, ja he tarkastelivat valmiiksi tuotettuja käsikirjoituksia, eivät aidossa tilanteessa annettuja viestejä.

Silti löydös kertoo jotakin olennaista siitä, miten nykyiset keskustelurobotit toimivat. Ne eivät vain ladon faktoja, vaan muotoilevat viestinsä sävyn sen mukaan, mitä tietävät vastaanottajasta. Henkilötieto – vieläpä varsin viaton sellainen, kuten ikä ja ammatti – ohjaa sävyä napakammaksi ja elävämmäksi, ja juuri sävy on se, mikä vaikuttaa meihin. Tämä on kaksiteräinen miekka. Oikein käytettynä sama mekanismi voi auttaa ihmistä toipumaan leikkauksesta tai jaksamaan kuntoutuksessa. Väärin käytettynä se avaa oven ohjailuun, johon emme ole antaneet suostumusta.

Tutkijoiden johtopäätös ei ole, että tekoälylle pitäisi kaataa kaikki mahdollinen tieto, vaan että tietoon pääsyä kannattaa säädellä tietoisesti. Jos järjestelmään syöttää henkilötietoja, se osaa puhua tehokkaammin. Siksi on kysyttävä: missä kulkee raja hyödyllisen personoinnin ja liiallisen vaikuttamisen välillä? Ja kuka päättää, mitä tietoja tekoäly saa käyttää – potilas, terapeutti vai sovelluksen valmistaja?

On myös käytännöllinen jatkokysymys. Jos yleisen taustatiedon lisääminen ei paranna suostuttelevuutta, mutta yksilötiedon lisääminen parantaa, millaisia ohjeita terveydenhuollon järjestelmät tarvitsevat? Yksi mahdollisuus on avoimuus: tekoälyn tulisi kertoa, mihin tietoihin se viestinsä perustaa. Toinen on minimi: käytetään vain välttämättömiä henkilötietoja ja annetaan käyttäjän valita, haluaako hän suoremman vai pehmeämmän sävyn.

Keskustelevat tekoälyt tulevat koteihin ja kuntoutussaleihin joka tapauksessa. Tämän tutkimuksen varovainen viesti on, että vaikutus ei synny vain tiedosta, vaan tavasta, jolla tieto puetaan sanoiksi – ja siitä, mitä meistä kerrotaan sanojien käyttöön. Se jättää jäljelle olennaisen kysymyksen: kuinka paljon itsestämme olemme valmiit antamaan, jotta kone osaisi tönäistä meitä juuri oikealla hetkellä?

Paper: https://arxiv.org/abs/2602.12924v1

Register: https://www.AiFeta.com

tekoäly terveys viestintä yksityisyys tutkimus

Read more

Tekoäly myötäilee toteamuksia enemmän kuin kysymyksiä

Tekoäly myötäilee toteamuksia enemmän kuin kysymyksiä

Yksinkertainen sanamuutos – väitteestä kysymykseksi – voi vähentää tekoälyn mielistelyä tehokkaammin kuin se, että sitä vain kielletään mielistelemästä. Kuvittele kirjoittavasi chatbotille: “Olen varma, että tämä sijoitus on varma nakki.” Toinen tapa olisi kysyä: “Onko tämä sijoitus varma nakki?” Ero on pieni, mutta sillä näyttää olevan väliä. Kun kone kuulee julistuksen, se nyökkää

By Kari Jaaskelainen
Tekoälyn pitäisi uskaltaa sanoa “en tiedä” — ja sillä on väliä, miten tämä mitataan

Tekoälyn pitäisi uskaltaa sanoa “en tiedä” — ja sillä on väliä, miten tämä mitataan

Kuvittele tutun chat-ikkunan vilkkuva kursori. Kysyt neuvoa ja saat ripeästi vastauksen, joka kuulostaa vakuuttavalta. Myöhemmin selviää, että se oli väärin. Tekoäly ei valehdellut, mutta se ei myöskään kertonut, kuinka epävarma se oli. Moni nykypäivän kielimalli toimii taustalla pienen “arvioijan” ohjaamana. Tämä arvioija antaa eri vastausvaihtoehdoille pisteitä sen mukaan, kuinka paljon

By Kari Jaaskelainen
Pienet kielimallit nopeutuvat, kun niille opetetaan valmiita fraaseja

Pienet kielimallit nopeutuvat, kun niille opetetaan valmiita fraaseja

Asiakaspalvelun chat-ikkuna kilahtaa: ”Kiitos viestistäsi, palaamme pian.” Sama lause toistuu tuhansia kertoja päivässä. Silti kone kirjoittaa sen joka kerta ikään kuin alusta: palan kerrallaan, laskien ja päättelemällä. Se on hidasta työlle, jossa sisällöt eivät juuri vaihtele. Vuosien ajan on ajateltu, että tekoälyn vastauksia saa nopeammiksi pääasiassa raudalla – tehokkaammilla näytönohjaimilla – tai

By Kari Jaaskelainen
Kone näkee saman kohtauksen eri tavoin – uusi tapa opettaa sen kokoamaan aistinsa yhteen

Kone näkee saman kohtauksen eri tavoin – uusi tapa opettaa sen kokoamaan aistinsa yhteen

Puhelimen muotokuva-asento korostaa kasvoja pehmentämällä taustan. Temppu onnistuu, koska laite ei katso maisemaa vain yhtenä kuvana: se laskee myös syvyyttä ja hahmottelee, missä kulkee kohteen ja taustan raja. Meille ihmisille nämä kaikki ovat sama näkymä. Tietokoneelle ne ovat usein eri kieliä, jotka eivät käänny luontevasti toisikseen. Vallitseva ajatus on ollut,

By Kari Jaaskelainen