Kysymys voi sokaista tekoälyn silmät

Share
Kysymys voi sokaista tekoälyn silmät

Kuvaa ja tekstiä yhdistelevät mallit erehtyvät usein, koska ne uskovat liikaa kysymyksen viitteisiin – ei siksi, että “näkö” olisi rikki.

Kuvittele arkipäiväinen tilanne: avaat puhelimen kameran, näytät tekoälylle valokuvan olohuoneesta ja kysyt ripeästi: “Miksi koira nukkuu sohvalla peiton alla?” Hetken päästä saat sujuvan selityksen – vaikka kuvassa ei ole koiraa, ehkä vain ruttuinen tyyny. Tekoäly kuulosti vakuuttavalta, mutta se kertoi tarinan, ei totuutta.

Tällaisia lipsahduksia kutsutaan hallusinaatioiksi: malli väittää näkevänsä jotain, mitä kuvassa ei ole. Pitkään yleinen selitys oli, että kuvapuoli on liian heikko – kameran “silmät” eivät ole yhtä terävät kuin kielen “aivot”. Uusi, arXivissa julkaistu tutkimus ehdottaa toisenlaista pääepäiltyä: usein vika ei ole silmissä vaan korvissa. Toisin sanoen malli ottaa kuulemma turhan kirjaimellisesti sen, mitä me ihmiset kysymme tai vihjaamme, ja antaa ohjetekstin ohittaa kuvan.

Tutkijat rakensivat HalluScope-nimisen testipaketin selvittääkseen, mistä hallusinaatiot oikeasti kumpuavat, kun mallit käsittelevät sekä kuvaa että kieltä. Heidän analyysinsä viittaa siihen, että suurin syy on “tekstuaalinen ennakko-oletus”: taustatieto ja ennen kaikkea se, miten kysymys on muotoiltu, painaa vaakakupissa enemmän kuin itse kuva. Jos ohjeessa tai kysymyksessä on oletus – esimerkiksi että kuvassa todella on koira tai että banaani on vihreä – malli alkaa täydentää maailmaa sen varaan.

Käytännössä tämä näkyy juuri arkisissa väärinymmärryksissä. Jos kysymys jo väittää, että kuvassa on jokin esine tai tapahtuma, malli usein jatkaa samalla olettamuksella sen sijaan, että pysähtyisi katsomaan kuvaa tarkemmin ja sanoisi: “En näe sitä, mistä puhut.” Esimerkiksi “Miksi liikennevalo on rikki?” voi johtaa vastaukseen, vaikka kuvassa ei edes olisi liikennevaloa. Tulos on kieliopillisesti moitteeton mutta tosiasiassa tuulesta temmattu.

Tähän asti ratkaisuksi on usein tarjottu parempaa “näkökykyä”: lisää datasta opittuja kuvapiirteitä, isompi malli, tarkempi liitospiste kuvan ja tekstin välillä. Uusi näyttö kuitenkin vihjaa, että huomio pitäisi kohdistaa myös siihen, miten malli ottaa ohjeita vastaan. Jos ohjeet ohjaavat liikaa, vahvistettu näkö ei pelasta – malli yhä täydentää kuvaa sen mukaan, mitä sille annetaan ymmärtää.

Tutkimus ei tyydy pelkkään diagnoosiin, vaan kokeilee myös lääkettä. Tekijät esittelevät HalluVL-DPO-nimisen menetelmän, joka hienosäätää valmiita malleja kohti kuvapohjaisempaa harkintaa. Ajatus on yksinkertainen, vaikka toteutus on tekninen: mallille näytetään parivertailuja vastauksista samaan kuvaan ja kysymykseen, ja sitä opetetaan suosimaan sellaista vastausta, joka pysyy uskollisena kuvalle eikä niele kysymyksen vihjettä. Tavoitteena on, että malli oppii sanomaan useammin “sitä ei näy kuvassa” silloin kun niin on laita.

Tekijöiden mukaan hienosäädetty malli vähensi nimenomaan ohjetekstistä juontuvia hallusinaatioita, eikä se kärsinyt muilla testeillä – paikoin tulokset jopa paranivat. Lisäksi ryhmä lupaa julkaista testipaketin, koulutusaineiston ja koodin, jotta muut voivat toistaa havainnot ja jatkaa kehitystä.

On hyvä huomata rajat. Ensinnäkin testipaketti simuloi tietyntyyppisiä tilanteita: se paljastaa, miten malli käyttäytyy, kun kysymys johdattelee. Mutta oikeassa elämässä kysymysten tyyli, kieli ja kuvat vaihtelevat paljon. Onko parannus pysyvä myös vapaassa, monikielisessä käytössä? Toiseksi menetelmä nojaa huolellisesti koottuun vertailuaineistoon. Jos aineisto on kapea, mallista voi tulla lähinnä taitava välttelemään juuri senkaltaisia ansoja – ja toisaalla se kompastuu uusiin. Kolmanneksi kaikki hallusinaatiot eivät synny ohjetekstistä. Jos kuva on suttuinen tai rajattu oudosti, tai jos mallilla on vahva taustaoletus arkitilanteista, virheitä tulee silti.

Riskejä on myös käytännössä. Jos mallia koulitaan torjumaan johdattelevia kysymyksiä, siitä voi tulla liian varovainen: se kieltäytyy vastaamasta silloinkin, kun kuvassa todella on se, mitä kysymys ehdottaa. Tasapaino suoraselkäisen “en näe sitä” -asenteen ja riittävän päättelyn välillä on herkkä.

Silti tutkimuksen viesti on terveellinen. Se kääntää katseen pois pelkästä raudasta ja kohti käyttöliittymää ja ihmisen tapaa ohjata konetta. Jos sanat voivat sokaista tekoälyn silmät, ratkaisu ei ole pelkästään terävämpi katse vaan myös paremmat kysymykset – ja malli, joka uskaltaa epäillä niitä. Tämä koskee sovelluksia, joissa panokset ovat suuret: lääketieteelliset kuvat, teollisuuden laadunvalvonta, uutiskuvien tarkistus. Niissä kielikukkanen ei ole harmiton, vaan virhe, joka voi johtaa vääriin johtopäätöksiin.

Ehkä tärkein käytännön oppi meille kaikille on yksinkertainen. Kun kysymme kuvia ymmärtävältä tekoälyltä, kannattaa välttää oletuksia sisältäviä johdattelua: “Mitä tässä näkyy?” on turvallisempi kuin “Miksi tässä on…?”. Ja malleille pitäisi opettaa ammattilaisen hyve: kun todisteet eivät riitä, sanotaan se ääneen.

Yksi iso kysymys jää ilmaan. Jos tulevaisuuden tekoäly osaa sekä katsoa että keskustella, miten rakennamme siitä kumppanin, joka ei miellyttääkseen keksi vastauksia vaan kysyy meiltä takaisin: “Oletko varma, että se todella on kuvassa?”

Paper: https://arxiv.org/abs/2604.21911v1

Register: https://www.AiFeta.com

tekoäly kuvantunnistus kielimallit tutkimus luotettavuus hallusinaatiot

Read more

Aikaleimat voivat kertoa hoitojaksoista – jos kone ymmärtää säännöt

Aikaleimat voivat kertoa hoitojaksoista – jos kone ymmärtää säännöt

Lääkärin työpöydällä vilisee merkintöjä: diagnoosikoodeja, laboratoriotuloksia, lääkityksen aloituksia ja lopetuksia. Kaikella on päivämäärä ja kellonaika. Silti se, mitä lääkäri oikeasti tarvitsee, on tarina: milloin sairausjakso alkoi, mitä hoitoa annettiin ja milloin se päättyi. Tietokone osaa hakea yksittäisiä rivejä nopeasti. Mutta osaako se nähdä kokonaisuuden? Tähän asti moni järjestelmä on tyytynyt

By Kari Jaaskelainen
Yhteinen sävel voi olla alue, ei lause

Yhteinen sävel voi olla alue, ei lause

Useimmat verkkoalustat kysyvät meiltä samaa kysymystä yhä uudelleen: oletko samaa vai eri mieltä? Peukku ylös, peukku alas. Silti arjessa harva mielipide tiivistyy yhteen lauseeseen. Ihmiset myös välittävät joistakin aiheista paljon, toisista vähemmän. Jos etsimme yhteistä maaperää, pitäisikö meidän etsiä sitä yksittäisten väittämien sijasta jostakin niiden väliltä? Tähän asti verkon keskustelualustoilla

By Kari Jaaskelainen
Tekoälyn voi harhauttaa pelkällä kirjoitustyylillä

Tekoälyn voi harhauttaa pelkällä kirjoitustyylillä

Uusi tutkimus osoittaa, että huomaamattomat tyylivihjeet voivat laukaista piilotettuja toimintoja suurissa kielimalleissa – ja kiertää suojauksia, joihin moni on luottanut. Kuvittele, että keskustelisit asiakaspalvelubotin kanssa. Kirjoitat viestisi rennosti, vaikka hieman ylitsevuotavan kohteliaasti. Vastaus kuulostaa sujuvalta – ehkä liiankin sujuvalta. Et huomaa, että pelkkä sävy ja rytmi lauseissasi on toiminut salaisena kytkimenä: botti

By Kari Jaaskelainen