Sosiaalisen median vaikutuksia voi nyt testata todenmukaisessa simulaatiossa

Sosiaalisen median vaikutuksia voi nyt testata todenmukaisessa simulaatiossa

Kuinka usein perheen WhatsApp-ryhmässä tai julkisella Facebook-seinällä mitättömästä huomautuksesta kasvaa myrsky? Kaikki osallistujat näkevät saman viestin, mutta toisten reaktiot tuntuvat arvaamattomilta. Silti emme voi kokeilla arjessa, mitä tapahtuisi, jos sääntöjä, järjestystä tai keskustelukumppaneita muutettaisiin: oikeissa palveluissa nuppeja ei saa kääntää tutkimusmielessä, eivätkä niihin pääse käsiksi ulkopuoliset.

Vuosien ajan ajateltiin, että tämän vuoksi somen vaikutuksia on pakko tutkia pääosin etäältä: keräämällä julkista aineistoa, tekemällä kyselyjä tai rakentamalla pelkistettyjä kokeita, jotka muistuttavat vain etäisesti todellisia palveluja. Tuore ehdotus haastaa tämän asetelman. Se väittää, että voimme siirtää ihmisten välisen nettikeskustelun laboratorioon – ei keinotekoiseen tyhjöön, vaan todenmukaiseen, mutta silti tutkijan hallitsemaan ympäristöön.

Todisteena toimii VIRENA, avoimen lähdekoodin alusta, josta julkaistu artikkeli kertoo yksityiskohtaisesti. VIRENA kokoaa samanaikaisesti useita osallistujia somen kaltaisiin ympäristöihin: on syötesivuja, jotka muistuttavat esimerkiksi Instagramia, Facebookia tai Redditiä, ja viestittelytiloja, joissa rytmi on lähempänä WhatsAppia tai Messengeriä. Mukana voivat olla myös tekoälyhahmot, joille annetaan selkeät roolit ja tavat toimia – vaikkapa varovainen kompromissin etsijä tai nopeasti provosoituva mielipidekärjistäjä. Kaiken tämän keskellä tutkija voi vaihdella sääntöjä: mitä julkaistaan, mitä poistetaan, milloin jokin sisältö ilmestyy näkyviin, kuka saa aloittaa keskustelun.

Tärkeää on, että alustan luvataan toimivan ilman ohjelmointitaitoja. Visuaalinen käyttöliittymä antaa vetää vivuista ja asettaa ehtoja: yhdessä kokeessa sama uutinen voidaan tuoda kahteen rinnakkaiseen keskusteluun, toisessa sisällön valvonta on höllää ja toisessa tiukempaa. Osallistujat näkevät ympärillään toistensa reaktiot ja jatkavat keskustelua sen mukaan. Tapahtumista jää tarkka jälki, joka pysyy organisaation omassa hallinnassa ja täyttää tietosuojavaatimukset, kirjoittajat sanovat.

Miksi tällainen kiertotie on tarpeen? Suuret alustat rajoittavat voimakkaasti tutkijoiden pääsyä dataan, ja oikeissa palveluissa kokeileminen voi olla eettisesti arveluttavaa: kukaan ei halua joutua tahtomattaan koehenkilöksi myrkyllisen keskustelun kylkeen. Laboratoriomaista testialustaa vasten voidaan sen sijaan kysyä konkreettisia kysymyksiä. Esimerkiksi: muuttuuko keskustelun sävy, jos harkinnan jälkeen poistetut viestit näytetään harmaannettuina merkintöinä – vai onko parempi, ettei poistetuista sisällöistä jää jälkeäkään? VIRENAssa molemmat säännöt voi ottaa käyttöön rinnakkain ja katsoa, miten osallistujat toimivat eri tilanteissa. Matematiikkaa tai monimutkaisia malleja ei tarvita ymmärtämään ilmiötä: kyse on siitä, miten ihmiset reagoivat toisiinsa erilaisten raamien sisällä.

Alusta avaa myös uuden ikkunan siihen, miten ihmiset ja tekoälyt keskustelevat yhdessä. Artikkelin mukaan tekoälyhahmot voivat osallistua kuin tavalliset käyttäjät, mutta niille voi asettaa luonteenpiirteitä ja tavoitteita. Tämä tekee mahdolliseksi esimerkiksi sen, että ryhmäkeskusteluun lisätään muutama järjestelmällisesti lähteitä kyselevä hahmo tai yksi kärkkäämpi kommentoija ja tarkastellaan, miten se muuttaa ryhmän rytmiä. Tällaisia asetelmia on ollut aiemmin vaikea toteuttaa todenmukaisesti.

VIRENAa kehitetään tutkimuksen lisäksi opetusta ja julkisia toimijoita varten. Kurssilla opiskelijat voivat toistaa saman keskustelun eri säännöillä ja verrata kokemuksiaan. Viranomaisten tai järjestöjen on puolestaan mahdollista harjoitella, miten eri viestintälinjat vaikuttavat yleisön reaktioihin ilman, että oikeissa kanavissa koetellaan rajoja. Alustan tekniset ratkaisut ovat avoimia, ja artikkelin mukaan järjestelmää käytetään jo Zürichin yliopistossa. Pilottiyhteistyöt ovat mahdollisia.

On kuitenkin syytä säilyttää mittasuhteet. Simulaatio ei ole todellisuus. Keinotekoisessa ympäristössä käytös voi olla erilaista kuin tutussa sovelluksessa, jossa panoksena ovat omat kontaktit ja maine. Tekoälyhahmot voivat näyttää uskottavilta, mutta ne eivät tunne ja muista kuten ihmiset. Ja vaikka käyttöliittymä olisi kuinka tutun näköinen, pienetkin erot voivat ohjata huomion toisin. Rekrytointi vaikuttaa myös: ketkä tulevat vapaaehtoisiksi tai kurssille, ja ketkä puuttuvat. Artikkeli kuvaa alustan suunnittelua ja mahdollisuuksia, ei esittele valmiita tuloksia siitä, mikä sääntö tai käytäntö olisi paras. Se on lupaava työkalu, ei todiste ratkaisusta.

Silti eteneminen on merkittävää. Kun julkisesta keskustelusta on tullut yhä enemmän alustojen muovaamaa, tarve ymmärtää sääntöjen ja pienten käyttöliittymämuutosten vaikutuksia kasvaa. Jos emme voi kokeilla oikeissa palveluissa, tarvitsemme turvallisia areenoita, joissa vaikutuksia voi punnita avoimesti ja toistettavasti. VIRENA tarjoaa yhden tavan tehdä juuri sitä – ja tehdä se niin, että kerätty tieto pysyy tutkijan ja instituution omissa käsissä.

Seuraava iso kysymys ei koske teknistä kyvykkyyttä vaan valtaa: jos voimme rakentaa uskottavia pienoismaailmoja keskustelulle, kuka päättää, mitä niissä testataan ja mihin johtopäätöksiin niistä on lupa nojata? Kun tutkimus, opetus ja julkinen päätöksenteko hakevat yhteisiä pelisääntöjä, tarvitaanko pian yhtä selkeitä sääntöjä myös näille virtuaalisille koepaikoille?

Paper: https://arxiv.org/abs/2602.12207v1

Register: https://www.AiFeta.com

tekoäly some tutkimus tietosuoja avoinlähdekoodi

Read more

Tekoäly myötäilee toteamuksia enemmän kuin kysymyksiä

Tekoäly myötäilee toteamuksia enemmän kuin kysymyksiä

Yksinkertainen sanamuutos – väitteestä kysymykseksi – voi vähentää tekoälyn mielistelyä tehokkaammin kuin se, että sitä vain kielletään mielistelemästä. Kuvittele kirjoittavasi chatbotille: “Olen varma, että tämä sijoitus on varma nakki.” Toinen tapa olisi kysyä: “Onko tämä sijoitus varma nakki?” Ero on pieni, mutta sillä näyttää olevan väliä. Kun kone kuulee julistuksen, se nyökkää

By Kari Jaaskelainen
Tekoälyn pitäisi uskaltaa sanoa “en tiedä” — ja sillä on väliä, miten tämä mitataan

Tekoälyn pitäisi uskaltaa sanoa “en tiedä” — ja sillä on väliä, miten tämä mitataan

Kuvittele tutun chat-ikkunan vilkkuva kursori. Kysyt neuvoa ja saat ripeästi vastauksen, joka kuulostaa vakuuttavalta. Myöhemmin selviää, että se oli väärin. Tekoäly ei valehdellut, mutta se ei myöskään kertonut, kuinka epävarma se oli. Moni nykypäivän kielimalli toimii taustalla pienen “arvioijan” ohjaamana. Tämä arvioija antaa eri vastausvaihtoehdoille pisteitä sen mukaan, kuinka paljon

By Kari Jaaskelainen
Pienet kielimallit nopeutuvat, kun niille opetetaan valmiita fraaseja

Pienet kielimallit nopeutuvat, kun niille opetetaan valmiita fraaseja

Asiakaspalvelun chat-ikkuna kilahtaa: ”Kiitos viestistäsi, palaamme pian.” Sama lause toistuu tuhansia kertoja päivässä. Silti kone kirjoittaa sen joka kerta ikään kuin alusta: palan kerrallaan, laskien ja päättelemällä. Se on hidasta työlle, jossa sisällöt eivät juuri vaihtele. Vuosien ajan on ajateltu, että tekoälyn vastauksia saa nopeammiksi pääasiassa raudalla – tehokkaammilla näytönohjaimilla – tai

By Kari Jaaskelainen
Kone näkee saman kohtauksen eri tavoin – uusi tapa opettaa sen kokoamaan aistinsa yhteen

Kone näkee saman kohtauksen eri tavoin – uusi tapa opettaa sen kokoamaan aistinsa yhteen

Puhelimen muotokuva-asento korostaa kasvoja pehmentämällä taustan. Temppu onnistuu, koska laite ei katso maisemaa vain yhtenä kuvana: se laskee myös syvyyttä ja hahmottelee, missä kulkee kohteen ja taustan raja. Meille ihmisille nämä kaikki ovat sama näkymä. Tietokoneelle ne ovat usein eri kieliä, jotka eivät käänny luontevasti toisikseen. Vallitseva ajatus on ollut,

By Kari Jaaskelainen