Sosiaalisen median vaikutuksia voi nyt testata todenmukaisessa simulaatiossa
Kuinka usein perheen WhatsApp-ryhmässä tai julkisella Facebook-seinällä mitättömästä huomautuksesta kasvaa myrsky? Kaikki osallistujat näkevät saman viestin, mutta toisten reaktiot tuntuvat arvaamattomilta. Silti emme voi kokeilla arjessa, mitä tapahtuisi, jos sääntöjä, järjestystä tai keskustelukumppaneita muutettaisiin: oikeissa palveluissa nuppeja ei saa kääntää tutkimusmielessä, eivätkä niihin pääse käsiksi ulkopuoliset.
Vuosien ajan ajateltiin, että tämän vuoksi somen vaikutuksia on pakko tutkia pääosin etäältä: keräämällä julkista aineistoa, tekemällä kyselyjä tai rakentamalla pelkistettyjä kokeita, jotka muistuttavat vain etäisesti todellisia palveluja. Tuore ehdotus haastaa tämän asetelman. Se väittää, että voimme siirtää ihmisten välisen nettikeskustelun laboratorioon – ei keinotekoiseen tyhjöön, vaan todenmukaiseen, mutta silti tutkijan hallitsemaan ympäristöön.
Todisteena toimii VIRENA, avoimen lähdekoodin alusta, josta julkaistu artikkeli kertoo yksityiskohtaisesti. VIRENA kokoaa samanaikaisesti useita osallistujia somen kaltaisiin ympäristöihin: on syötesivuja, jotka muistuttavat esimerkiksi Instagramia, Facebookia tai Redditiä, ja viestittelytiloja, joissa rytmi on lähempänä WhatsAppia tai Messengeriä. Mukana voivat olla myös tekoälyhahmot, joille annetaan selkeät roolit ja tavat toimia – vaikkapa varovainen kompromissin etsijä tai nopeasti provosoituva mielipidekärjistäjä. Kaiken tämän keskellä tutkija voi vaihdella sääntöjä: mitä julkaistaan, mitä poistetaan, milloin jokin sisältö ilmestyy näkyviin, kuka saa aloittaa keskustelun.
Tärkeää on, että alustan luvataan toimivan ilman ohjelmointitaitoja. Visuaalinen käyttöliittymä antaa vetää vivuista ja asettaa ehtoja: yhdessä kokeessa sama uutinen voidaan tuoda kahteen rinnakkaiseen keskusteluun, toisessa sisällön valvonta on höllää ja toisessa tiukempaa. Osallistujat näkevät ympärillään toistensa reaktiot ja jatkavat keskustelua sen mukaan. Tapahtumista jää tarkka jälki, joka pysyy organisaation omassa hallinnassa ja täyttää tietosuojavaatimukset, kirjoittajat sanovat.
Miksi tällainen kiertotie on tarpeen? Suuret alustat rajoittavat voimakkaasti tutkijoiden pääsyä dataan, ja oikeissa palveluissa kokeileminen voi olla eettisesti arveluttavaa: kukaan ei halua joutua tahtomattaan koehenkilöksi myrkyllisen keskustelun kylkeen. Laboratoriomaista testialustaa vasten voidaan sen sijaan kysyä konkreettisia kysymyksiä. Esimerkiksi: muuttuuko keskustelun sävy, jos harkinnan jälkeen poistetut viestit näytetään harmaannettuina merkintöinä – vai onko parempi, ettei poistetuista sisällöistä jää jälkeäkään? VIRENAssa molemmat säännöt voi ottaa käyttöön rinnakkain ja katsoa, miten osallistujat toimivat eri tilanteissa. Matematiikkaa tai monimutkaisia malleja ei tarvita ymmärtämään ilmiötä: kyse on siitä, miten ihmiset reagoivat toisiinsa erilaisten raamien sisällä.
Alusta avaa myös uuden ikkunan siihen, miten ihmiset ja tekoälyt keskustelevat yhdessä. Artikkelin mukaan tekoälyhahmot voivat osallistua kuin tavalliset käyttäjät, mutta niille voi asettaa luonteenpiirteitä ja tavoitteita. Tämä tekee mahdolliseksi esimerkiksi sen, että ryhmäkeskusteluun lisätään muutama järjestelmällisesti lähteitä kyselevä hahmo tai yksi kärkkäämpi kommentoija ja tarkastellaan, miten se muuttaa ryhmän rytmiä. Tällaisia asetelmia on ollut aiemmin vaikea toteuttaa todenmukaisesti.
VIRENAa kehitetään tutkimuksen lisäksi opetusta ja julkisia toimijoita varten. Kurssilla opiskelijat voivat toistaa saman keskustelun eri säännöillä ja verrata kokemuksiaan. Viranomaisten tai järjestöjen on puolestaan mahdollista harjoitella, miten eri viestintälinjat vaikuttavat yleisön reaktioihin ilman, että oikeissa kanavissa koetellaan rajoja. Alustan tekniset ratkaisut ovat avoimia, ja artikkelin mukaan järjestelmää käytetään jo Zürichin yliopistossa. Pilottiyhteistyöt ovat mahdollisia.
On kuitenkin syytä säilyttää mittasuhteet. Simulaatio ei ole todellisuus. Keinotekoisessa ympäristössä käytös voi olla erilaista kuin tutussa sovelluksessa, jossa panoksena ovat omat kontaktit ja maine. Tekoälyhahmot voivat näyttää uskottavilta, mutta ne eivät tunne ja muista kuten ihmiset. Ja vaikka käyttöliittymä olisi kuinka tutun näköinen, pienetkin erot voivat ohjata huomion toisin. Rekrytointi vaikuttaa myös: ketkä tulevat vapaaehtoisiksi tai kurssille, ja ketkä puuttuvat. Artikkeli kuvaa alustan suunnittelua ja mahdollisuuksia, ei esittele valmiita tuloksia siitä, mikä sääntö tai käytäntö olisi paras. Se on lupaava työkalu, ei todiste ratkaisusta.
Silti eteneminen on merkittävää. Kun julkisesta keskustelusta on tullut yhä enemmän alustojen muovaamaa, tarve ymmärtää sääntöjen ja pienten käyttöliittymämuutosten vaikutuksia kasvaa. Jos emme voi kokeilla oikeissa palveluissa, tarvitsemme turvallisia areenoita, joissa vaikutuksia voi punnita avoimesti ja toistettavasti. VIRENA tarjoaa yhden tavan tehdä juuri sitä – ja tehdä se niin, että kerätty tieto pysyy tutkijan ja instituution omissa käsissä.
Seuraava iso kysymys ei koske teknistä kyvykkyyttä vaan valtaa: jos voimme rakentaa uskottavia pienoismaailmoja keskustelulle, kuka päättää, mitä niissä testataan ja mihin johtopäätöksiin niistä on lupa nojata? Kun tutkimus, opetus ja julkinen päätöksenteko hakevat yhteisiä pelisääntöjä, tarvitaanko pian yhtä selkeitä sääntöjä myös näille virtuaalisille koepaikoille?
Paper: https://arxiv.org/abs/2602.12207v1
Register: https://www.AiFeta.com
tekoäly some tutkimus tietosuoja avoinlähdekoodi