Yhteinen luokittelu tekee somemanipulaation etsimisestä läpinäkyvämpää
Aamulla uutisvirta vyöryy päälle: kriisi toisaalla, protesti toisaalla, kymmenet samat viestit hiukan eri sanoin. Mikä on aitoa huolta, mikä on järjestelmällistä ohjausta? Yksittäisen ihmisen on vaikea päätellä sitä selaamalla – ja sama pätee viranomaisiin ja tutkijoihin. Samaan aikaan manipuloivan sisällön tuottaminen on halventunut: tekoäly tekee uskottavan viestin ja sen monistamisen helpoksi.
Perinteisesti verkon vaikuttamista on yritetty kuvata kahdella tavalla. Yhtäältä asiantuntijat ovat lukeneet viestejä käsin, tulkinneet kokonaisuuksia ja yrittäneet tunnistaa toistuvia toimintatapoja. Toisaalta on toivottu, että jokin suuri tekoäly löytää “epäilyttävän” sisällön automaattisesti. Ensimmäinen ei skaalaudu, toinen ei kerro miksi se päätyi päätelmäänsä.
Tuore tutkimus esittää kolmannen vaihtoehdon: sen sijaan että yksi malli yrittäisi tehdä kaiken, useista erikoistuneista tekoälyistä kootaan työryhmä, joka etsii ensin ehdokkaita manipuloivasta toiminnasta ja nimeää ne yhteisen, jaettavan luokittelun mukaan. Lähestymistapa on rakennettu toimimaan erityisesti DISARM-kehyksen kanssa. Se on ulkomailta johdetun informaatiovaikuttamisen (englanniksi FIMI) kuvaamiseen luotu yhteinen sanasto ja tapa tallentaa taustatietoja – käytännössä standardi, jonka avulla kumppanit voivat puhua samoista ilmiöistä samoilla termeillä.
Miksi tällä on väliä? Koska verkko on yhteinen, myös sen suojelu on yhteistä. Tutkimus kytkee kaksi aiemmin erillistä ongelmaa toisiinsa: miten havaita epäilyttävä toiminta suuressa mittakaavassa ja miten kuvata se niin, että tieto on jaettavissa ja ymmärrettävissä yli organisaatio- ja maarajojen. NATO-maiden yhteistyön kannalta se on peruskysymys, mutta yhtä lailla tärkeä toimittajille, tutkijoille ja kansalaisjärjestöille.
Ajatus on yksinkertainen, vaikka toteutus on tekninen. Ensin erikoistunut tekoäly etsii merkkejä mahdollisesta manipuloinnista: esimerkiksi poikkeuksellista samanaikaisuutta, toistuvia ilmaisuja tai epätavallista tilinkäyttöä. Toinen tekoäly ottaa nämä löydökset ja mapittaa ne DISARMin kaltaisiin luokkiin – eli nimeää selkeästi, millaisesta toimintatavasta on kyse. Tavoitteena on läpinäkyvyys: järjestelmä ei vain nosta punaista lippua, vaan kertoo, mihin kategoriaan havainto kuuluu ja millä perusteilla.
Yksi konkreettinen esimerkki auttaa hahmottamaan asiaa. Kuvitellaan, että saman uutislinkin jakaa lyhyessä ajassa joukko uusia tilejä, joilla on vähän aiempaa aktiivisuutta. Järjestelmän ensimmäinen osa huomaa epätavallisen rypästyksen ja samanlaisuuden. Seuraava osa nimeää ilmiön sisällön voimistamiseksi – tarkoitukseksi näyttää viesti suositummalta ja uskottavammalta kuin se onkaan. Kun havainto on yhdistetty standardoituun luokkaan, sen voi jakaa eteenpäin: näin näyttää koordinoitu voimistaminen, tällaisilla merkeillä. Tieto on käyttökelpoista riippumatta siitä, katsooko sitä tutkija Helsingissä vai analyytikko Brysselissä.
Tutkimus ei jää teorian tasolle. Tekijät arvioivat lähestymistapaa kahdella käytännön aineistolla, jotka alan ammattilaiset olivat valmiiksi luokitelleet. Tulokset viittaavat siihen, että menetelmä auttaa skaalaamaan työtä, joka on ollut pääosin käsityötä ja tulkinnanvaraista. Toisin sanoen: suuri osa rutiinista – ehdokkaiden seulonta ja alustava nimeäminen – voidaan antaa koneen tehtäväksi, jolloin ihmisille jää harkinta ja kokonaisuuden ymmärtäminen.
Tällä on myös kääntöpuolensa. Manipuloinnin tutkiminen on “raskaasti tulkinnallista”, kuten kirjoittajat muistuttavat. Vaikka tekoäly pystyy nimeämään toimintatapoja yhteisen sanaston mukaan, kynnys sille, milloin jokin on epäilyttävää, ei katoa. Väärät hälytykset ja väliin jääneet tapaukset ovat aina mahdollisia. Lisäksi tutkimus perustuu kahteen aineistoon, eikä kerro vielä, miten hyvin menetelmä yleistyy erilaisiin kieliin, kulttuureihin tai nopeasti muuttuviin taktiikoihin. Myös pääsy sosiaalisen median dataan rajoittaa sitä, mitä voidaan ylipäätään nähdä.
On tärkeää huomata myös se, mitä järjestelmä ei tee. Se ei ratkaise, onko väite tosi vai epätosi, eikä se yritä tulkita ihmisten motiiveja. Se kuvaa toimintaa: kuka julkaisi mitä, milloin ja millä tavoin, ja millaisia kaavoja tästä syntyy. Monelle tämä voi olla hyve, ei puute – määritelmät lipeävät harvoin silloin, kun pidetään kiinni havainnoista. Samalla se asettaa vastuun ihmisille: missä kulkee raja aktiivisuuden ja manipuloinnin välillä, milloin koordinaatio on yhteiskunnallista osallistumista ja milloin ulkoa johdettua häirintää?
Toinen kysymys on yhteentoimivuus. DISARM on yksi yritys sopia yhteisestä kielestä, ja tutkimus tekee siitä käytännöllisemmän. Lähestymistapa on kuitenkin periaatteessa muokattavissa myös muihin jaotteluihin. Tämä on vahvuus: kukaan ei omista sanoja, ja taktiikat muuttuvat. Yhteinen kieli on hyödyllinen vain, jos se elää maailman mukana.
Taustalla on kiire, jota kukaan ei hallitse yksin. Tekoäly on halventanut manipulointia: viestin kirjoittaminen, sen muokkaaminen eri yleisöille ja sen levittäminen voivat tapahtua nappia painamalla. Siksi myös puolustajien on rakennettava mittakaavaa ja yhteistä ymmärrystä. Uusi tutkimus tarjoaa yhden askeleen: tapa, jolla kone voi sekä löytää että selittää havaintonsa tavalla, joka on jaettavissa kumppaneiden välillä.
Se ei silti vastaa isoimpaan kysymykseen: kuka päättää, mikä on hyväksyttävää vaikuttamista ja mikä on ulkoa johdettua häirintää? Kun tekoäly oppii sekä rakentamaan että purkamaan viestiketjuja, vastaus ei synny vain laboratoriossa. Se syntyy siitä, miten demokraattiset yhteiskunnat sopivat pelisäännöistä – ja siitä, kykenevätkö ne puhumaan niistä samalla kielellä.
Paper: https://arxiv.org/abs/2601.15109v1
Register: https://www.AiFeta.com
tekoäly disinformaatio sosiaalinen-media turvallisuus NATO tutkimus