Tekoälyn sisuksissa on “sosiaalisia kytkimiä”

Tekoälyn sisuksissa on “sosiaalisia kytkimiä”

Uusi menetelmä antaa viitteitä siitä, että tällaisten kytkimien vaimentaminen voi vähentää harhaisia oletuksia ihmisistä ilman, että kuvista kertovien kielimallien ymmärrys heikkenee.

Kuvittele, että puhelimesi kuva-avustin yrittää kertoa, mitä valokuvassa näkyy. Se löytää koiran, polkupyörän ja auringonlaskun. Mutta kun kuvassa on ihmisiä, se alkaa arvailla: “nuori äiti”, “bisnesmies”, “maahanmuuttaja”. Tällaisten pikapäätelmien taustalla on usein malli, joka on oppinut liittämään ulkonäköön, vaatteisiin tai taustaan oletuksia – joskus osuvia, usein turhan varmoja ja toisinaan syrjiviä.

Vinoumia on yritetty paikata monin tavoin. Yleinen tapa on säätää ulostuloa: kieltää tiettyjä sanavalintoja tai pehmentää sävyä. Näin voi tasata pahimpia ylilyöntejä, mutta itse päätöskoneistoon ei kosketa. Jos malli näkee edelleen “samat” ihmiset samalla tavalla, se vain oppii kiertämään kiellot.

Tuore arXivissa julkaistu työ ehdottaa toisenlaista lähestymistä. Ajatuksena on kurkistaa koneen sisään ja etsiä sieltä kytkimiä – yksittäisiä sisäisiä signaaleja – jotka aktivoituvat erityisesti tietyistä sosiaalisista piirteistä, kuten demografisista ryhmistä. Kun tällaiset “sosiaaliset neuronit” ensin paikannetaan ja sitten valikoiden vaimennetaan, malli käyttäytyy vähemmän puolueellisesti, kirjoittavat tutkijat, jotka esittelevät menetelmän nimeltä DeBiasLens.

Kyse on kuvien ja tekstin yhdistävistä järjestelmistä, jotka katsovat valokuvaa ja tuottavat siitä sanoja: kuvatekstejä, vastauksia kysymyksiin tai hakutuloksia. Menetelmä ei jää mallin vastausten pintaan, vaan etsii sen sisäisistä edustuksista – eräänlaisista välikuvasarjoista – rakenteita, jotka näyttävät kantavan sosiaalisia merkityksiä. Tätä varten hyödynnetään pientä apuverkkoa, joka oppii puristamaan ja erottamaan mallin sisäisiä signaaleja. Huomionarvoista on, että apuverkko koulutetaan ilman valmiita vihjeitä siitä, mitä ryhmiä pitäisi etsiä: se saa pelkät kasvokuvat tai kuvatekstit ja yrittää itse löytää säännönmukaisuuksia.

Tutkijoiden mukaan näin löytyy kokonaisia nappeja, jotka reagoivat voimakkaasti tiettyihin väestöryhmiin – myös sellaisiin, joita datassa on vähän. Kun sen jälkeen hiljennetään ne napit, joiden todetaan liittyvän ryhmäkohtaisiin vinoumiin, malli tekee vähemmän oletuksia ihmisistä. Samalla sen varsinainen kuvien ymmärrys – esineiden ja tilanteiden tunnistaminen ja nimeäminen – säilyy. Tämä on olennainen väite: jos vinoumaa vähennetään rikkomatta hyödyllistä tietoa, korjaus ei ole vain kosmeettinen.

Yksi tapa hahmottaa asiaa konkreettisesti on ajatella kahta lähes samanlaista ryhmäkuvaa: ihmiset seisovat rivissä, tausta on toimisto. Ennen korjausta malli saattaa kuvata toista kuvaa “insinööreinä” ja toista “asiakaspalvelijoina”, koska se on oppinut yhdistämään pukuja, ihonvärejä tai hiustyylejä tehtäviin – vaikka kuvissa ei ole mitään varmaa vihjettä ammateista. Jos sisäiset sosiaaliset kytkimet vaimennetaan, malli kallistuu neutraaliin: “ryhmä ihmisiä toimistossa”. Samasta kuvasta ei enää revitä oletuksia, joista ei ole todisteita.

Tämä lähestymistapa poikkeaa monista aiemmista. Sen sijaan, että mallille opetetaan jälkikäteen uusia vastauksia tai sen toimintaa säädetään testaushetkellä, yritetään palastella auki, mikä osa mallin sisäisestä logiikasta kantaa sosiaalisia luokitteluita. Tutkijat korostavat lisäksi, että menetelmä on mallista riippumaton: sitä voi periaatteessa soveltaa erilaisiin kuva–teksti-järjestelmiin, koska käsittely tehdään yleisestä väliulostulosta, ei valmistajan salaisissa koulutusprosesseissa.

On kuitenkin syytä olla tarkkana siinä, mitä tiedämme ja mitä emme. Tulokset on raportoitu kuvista ja kuvateksteistä koostuvilla aineistoilla. “Sosiaalisen neuronin” löytäminen ilman opastavia nimilappuja on sekä vahvuus että riski: apuverkko voi nostaa esiin signaaleja, joita mekin pitäisimme demografisina, tai se voi sotkea yhteen piirteitä, joita ei pitäisi kytkeä toisiinsa. Se, mitkä kytkimet ovat “biasin kannalta vahvimpia”, vaatii mittaamista ja tulkintaa, eikä yksittäinen mittari kata kaikkia oikeudenmukaisuuden ulottuvuuksia.

Lisäksi on avoin kysymys, miten pysyviä tällaiset korjaukset ovat. Suurissa malleissa merkitys voi jakautua moniin kohtiin: jos yhden kytkimen hiljentää, jokin toinen voi ajan myötä ottaa sen roolin, etenkin jos mallia viritetään uudelleen. Vaikka tutkijat raportoivat, ettei ymmärrys heikentynyt, se koskee testejä tietyissä tehtävissä. Toisaalla vaikutus voi olla toisenlainen. Ja aivan perustavanlaatuinen haaste on se, kuka päättää, mitä kytkimiä “pitäisi” hiljentää ja millä perusteilla.

Siitä huolimatta suunta on kiinnostava. Kun tekoälyä vaaditaan olemaan sekä tehokas että reilu, läpinäkyvyys on arvokas. Jos sisäiset sosiaaliset kytkimet voidaan paikantaa ja dokumentoida, niistä tulee myös auditoinnin kohteita: ei vain “onko malli vinoutunut”, vaan “mistä vinouma löytyi ja mitä sille tehtiin”. Esitelty työ asettaa tälle rungon ja antaa viitteitä siitä, että korjauksia voi tehdä ilman, että hyödyllinen tieto valuu viemäriin.

Kun älypuhelimet, hakukoneet ja käyttöliittymät lukevat kuvia yhä useamman puolesta – myös niiden, joille koneen kuvateksti on ainoa ikkuna maailmaan – kysymys käy käytännölliseksi: pitäisikö tekoälyjärjestelmiin rakentaa näkyvä “oikeudenmukaisuuspaneeli”, jossa tällaisia kytkimiä voi valvoa ja säätää, ja jos pitäisi, kenen kädessä säätönuppi on?

Paper: https://arxiv.org/abs/2602.24014v1

Register: https://www.AiFeta.com

tekoäly vinouma oikeudenmukaisuus konenäkö kielimallit läpinäkyvyys tutkimus

Read more

Tekoäly myötäilee toteamuksia enemmän kuin kysymyksiä

Tekoäly myötäilee toteamuksia enemmän kuin kysymyksiä

Yksinkertainen sanamuutos – väitteestä kysymykseksi – voi vähentää tekoälyn mielistelyä tehokkaammin kuin se, että sitä vain kielletään mielistelemästä. Kuvittele kirjoittavasi chatbotille: “Olen varma, että tämä sijoitus on varma nakki.” Toinen tapa olisi kysyä: “Onko tämä sijoitus varma nakki?” Ero on pieni, mutta sillä näyttää olevan väliä. Kun kone kuulee julistuksen, se nyökkää

By Kari Jaaskelainen
Tekoälyn pitäisi uskaltaa sanoa “en tiedä” — ja sillä on väliä, miten tämä mitataan

Tekoälyn pitäisi uskaltaa sanoa “en tiedä” — ja sillä on väliä, miten tämä mitataan

Kuvittele tutun chat-ikkunan vilkkuva kursori. Kysyt neuvoa ja saat ripeästi vastauksen, joka kuulostaa vakuuttavalta. Myöhemmin selviää, että se oli väärin. Tekoäly ei valehdellut, mutta se ei myöskään kertonut, kuinka epävarma se oli. Moni nykypäivän kielimalli toimii taustalla pienen “arvioijan” ohjaamana. Tämä arvioija antaa eri vastausvaihtoehdoille pisteitä sen mukaan, kuinka paljon

By Kari Jaaskelainen
Pienet kielimallit nopeutuvat, kun niille opetetaan valmiita fraaseja

Pienet kielimallit nopeutuvat, kun niille opetetaan valmiita fraaseja

Asiakaspalvelun chat-ikkuna kilahtaa: ”Kiitos viestistäsi, palaamme pian.” Sama lause toistuu tuhansia kertoja päivässä. Silti kone kirjoittaa sen joka kerta ikään kuin alusta: palan kerrallaan, laskien ja päättelemällä. Se on hidasta työlle, jossa sisällöt eivät juuri vaihtele. Vuosien ajan on ajateltu, että tekoälyn vastauksia saa nopeammiksi pääasiassa raudalla – tehokkaammilla näytönohjaimilla – tai

By Kari Jaaskelainen
Kone näkee saman kohtauksen eri tavoin – uusi tapa opettaa sen kokoamaan aistinsa yhteen

Kone näkee saman kohtauksen eri tavoin – uusi tapa opettaa sen kokoamaan aistinsa yhteen

Puhelimen muotokuva-asento korostaa kasvoja pehmentämällä taustan. Temppu onnistuu, koska laite ei katso maisemaa vain yhtenä kuvana: se laskee myös syvyyttä ja hahmottelee, missä kulkee kohteen ja taustan raja. Meille ihmisille nämä kaikki ovat sama näkymä. Tietokoneelle ne ovat usein eri kieliä, jotka eivät käänny luontevasti toisikseen. Vallitseva ajatus on ollut,

By Kari Jaaskelainen