Yhteinen luokittelu tekee somemanipulaation etsimisestä läpinäkyvämpää

Yhteinen luokittelu tekee somemanipulaation etsimisestä läpinäkyvämpää

Aamulla uutisvirta vyöryy päälle: kriisi toisaalla, protesti toisaalla, kymmenet samat viestit hiukan eri sanoin. Mikä on aitoa huolta, mikä on järjestelmällistä ohjausta? Yksittäisen ihmisen on vaikea päätellä sitä selaamalla – ja sama pätee viranomaisiin ja tutkijoihin. Samaan aikaan manipuloivan sisällön tuottaminen on halventunut: tekoäly tekee uskottavan viestin ja sen monistamisen helpoksi.

Perinteisesti verkon vaikuttamista on yritetty kuvata kahdella tavalla. Yhtäältä asiantuntijat ovat lukeneet viestejä käsin, tulkinneet kokonaisuuksia ja yrittäneet tunnistaa toistuvia toimintatapoja. Toisaalta on toivottu, että jokin suuri tekoäly löytää “epäilyttävän” sisällön automaattisesti. Ensimmäinen ei skaalaudu, toinen ei kerro miksi se päätyi päätelmäänsä.

Tuore tutkimus esittää kolmannen vaihtoehdon: sen sijaan että yksi malli yrittäisi tehdä kaiken, useista erikoistuneista tekoälyistä kootaan työryhmä, joka etsii ensin ehdokkaita manipuloivasta toiminnasta ja nimeää ne yhteisen, jaettavan luokittelun mukaan. Lähestymistapa on rakennettu toimimaan erityisesti DISARM-kehyksen kanssa. Se on ulkomailta johdetun informaatiovaikuttamisen (englanniksi FIMI) kuvaamiseen luotu yhteinen sanasto ja tapa tallentaa taustatietoja – käytännössä standardi, jonka avulla kumppanit voivat puhua samoista ilmiöistä samoilla termeillä.

Miksi tällä on väliä? Koska verkko on yhteinen, myös sen suojelu on yhteistä. Tutkimus kytkee kaksi aiemmin erillistä ongelmaa toisiinsa: miten havaita epäilyttävä toiminta suuressa mittakaavassa ja miten kuvata se niin, että tieto on jaettavissa ja ymmärrettävissä yli organisaatio- ja maarajojen. NATO-maiden yhteistyön kannalta se on peruskysymys, mutta yhtä lailla tärkeä toimittajille, tutkijoille ja kansalaisjärjestöille.

Ajatus on yksinkertainen, vaikka toteutus on tekninen. Ensin erikoistunut tekoäly etsii merkkejä mahdollisesta manipuloinnista: esimerkiksi poikkeuksellista samanaikaisuutta, toistuvia ilmaisuja tai epätavallista tilinkäyttöä. Toinen tekoäly ottaa nämä löydökset ja mapittaa ne DISARMin kaltaisiin luokkiin – eli nimeää selkeästi, millaisesta toimintatavasta on kyse. Tavoitteena on läpinäkyvyys: järjestelmä ei vain nosta punaista lippua, vaan kertoo, mihin kategoriaan havainto kuuluu ja millä perusteilla.

Yksi konkreettinen esimerkki auttaa hahmottamaan asiaa. Kuvitellaan, että saman uutislinkin jakaa lyhyessä ajassa joukko uusia tilejä, joilla on vähän aiempaa aktiivisuutta. Järjestelmän ensimmäinen osa huomaa epätavallisen rypästyksen ja samanlaisuuden. Seuraava osa nimeää ilmiön sisällön voimistamiseksi – tarkoitukseksi näyttää viesti suositummalta ja uskottavammalta kuin se onkaan. Kun havainto on yhdistetty standardoituun luokkaan, sen voi jakaa eteenpäin: näin näyttää koordinoitu voimistaminen, tällaisilla merkeillä. Tieto on käyttökelpoista riippumatta siitä, katsooko sitä tutkija Helsingissä vai analyytikko Brysselissä.

Tutkimus ei jää teorian tasolle. Tekijät arvioivat lähestymistapaa kahdella käytännön aineistolla, jotka alan ammattilaiset olivat valmiiksi luokitelleet. Tulokset viittaavat siihen, että menetelmä auttaa skaalaamaan työtä, joka on ollut pääosin käsityötä ja tulkinnanvaraista. Toisin sanoen: suuri osa rutiinista – ehdokkaiden seulonta ja alustava nimeäminen – voidaan antaa koneen tehtäväksi, jolloin ihmisille jää harkinta ja kokonaisuuden ymmärtäminen.

Tällä on myös kääntöpuolensa. Manipuloinnin tutkiminen on “raskaasti tulkinnallista”, kuten kirjoittajat muistuttavat. Vaikka tekoäly pystyy nimeämään toimintatapoja yhteisen sanaston mukaan, kynnys sille, milloin jokin on epäilyttävää, ei katoa. Väärät hälytykset ja väliin jääneet tapaukset ovat aina mahdollisia. Lisäksi tutkimus perustuu kahteen aineistoon, eikä kerro vielä, miten hyvin menetelmä yleistyy erilaisiin kieliin, kulttuureihin tai nopeasti muuttuviin taktiikoihin. Myös pääsy sosiaalisen median dataan rajoittaa sitä, mitä voidaan ylipäätään nähdä.

On tärkeää huomata myös se, mitä järjestelmä ei tee. Se ei ratkaise, onko väite tosi vai epätosi, eikä se yritä tulkita ihmisten motiiveja. Se kuvaa toimintaa: kuka julkaisi mitä, milloin ja millä tavoin, ja millaisia kaavoja tästä syntyy. Monelle tämä voi olla hyve, ei puute – määritelmät lipeävät harvoin silloin, kun pidetään kiinni havainnoista. Samalla se asettaa vastuun ihmisille: missä kulkee raja aktiivisuuden ja manipuloinnin välillä, milloin koordinaatio on yhteiskunnallista osallistumista ja milloin ulkoa johdettua häirintää?

Toinen kysymys on yhteentoimivuus. DISARM on yksi yritys sopia yhteisestä kielestä, ja tutkimus tekee siitä käytännöllisemmän. Lähestymistapa on kuitenkin periaatteessa muokattavissa myös muihin jaotteluihin. Tämä on vahvuus: kukaan ei omista sanoja, ja taktiikat muuttuvat. Yhteinen kieli on hyödyllinen vain, jos se elää maailman mukana.

Taustalla on kiire, jota kukaan ei hallitse yksin. Tekoäly on halventanut manipulointia: viestin kirjoittaminen, sen muokkaaminen eri yleisöille ja sen levittäminen voivat tapahtua nappia painamalla. Siksi myös puolustajien on rakennettava mittakaavaa ja yhteistä ymmärrystä. Uusi tutkimus tarjoaa yhden askeleen: tapa, jolla kone voi sekä löytää että selittää havaintonsa tavalla, joka on jaettavissa kumppaneiden välillä.

Se ei silti vastaa isoimpaan kysymykseen: kuka päättää, mikä on hyväksyttävää vaikuttamista ja mikä on ulkoa johdettua häirintää? Kun tekoäly oppii sekä rakentamaan että purkamaan viestiketjuja, vastaus ei synny vain laboratoriossa. Se syntyy siitä, miten demokraattiset yhteiskunnat sopivat pelisäännöistä – ja siitä, kykenevätkö ne puhumaan niistä samalla kielellä.

Paper: https://arxiv.org/abs/2601.15109v1

Register: https://www.AiFeta.com

tekoäly disinformaatio sosiaalinen-media turvallisuus NATO tutkimus

Read more

Kun päällekkäisyys ei olekaan virhe: hermoverkot voivat hyödyntää “hälyä”

Kun päällekkäisyys ei olekaan virhe: hermoverkot voivat hyödyntää “hälyä”

Jos tekoäly järjestää sisäiset signaalinsa hyödyntämään sanojen yhteisesiintymiä, se voi vahvistaa oikeaa viestiä sen sijaan, että yrittäisi peittää kaiken päällekkäisyyden – ja tämä haastaa vallitsevan selitysmallin siitä, miten mallit ajattelevat. Kuvittele selaavasi reseptejä. Kun ruudulla vilahtaa “kahvi”, todennäköisesti näet pian “kupin” tai “mukin”. Me huomaamme tällaiset parit vaistonvaraisesti. Mutta mitä tapahtuu

By Kari Jaaskelainen
Synteettinen data parantaa satelliittikuvien tekoälyä, kun sisältö tarkistetaan sanoin ja kuvin

Synteettinen data parantaa satelliittikuvien tekoälyä, kun sisältö tarkistetaan sanoin ja kuvin

Kun kuvan piirteet nimetään ja kuvataan sanallisesti, tekoälyn harjoittamiseen luotu aineisto muuttuu ymmärrettäväksi – ja toimii paremmin kuin pelkkä oikea data yksinään. Kun avaa karttasovelluksen satelliittinäkymän, näkee ylhäältäpäin asioita, joita maan tasalla harvoin ajattelee: teiden suoruuden, jokien kiemurat, pellonlaidat, jotka asettuvat kuin palapelin palat. Juuri tällaisia kuvia koneoppimismallit yrittävät tulkita. Ne

By Kari Jaaskelainen
Huipputulokset koetesteissä eivät vielä todista aidosta päättelystä

Huipputulokset koetesteissä eivät vielä todista aidosta päättelystä

Kuvittele, että sinulle annetaan ohjelmointikirja kielellä, jota et ole koskaan nähnyt. Selailisit dokumentaatiota, kokeilisit esimerkkejä ja muuttaisit koodia, kunnes se toimii. Ihminen oppii näin varsin nopeasti uuden kielen alkeet. Mutta osaavatko myös tekoälymallit oppia uutta näin, vai toistavatko ne lähinnä asioita, joita ovat aiemmin nähneet? Viime vuosina suuret kielimallit ovat

By Kari Jaaskelainen
Tekoäly oppii katsomaan kuvia myös vietnamiksi, kun data ja mittarit päivitetään

Tekoäly oppii katsomaan kuvia myös vietnamiksi, kun data ja mittarit päivitetään

Matkalla otettu kuva torilta: muovipussissa vilahtaa keltainen hedelmä, ja joku kysyy puhelimelta vietnamin kielellä, mitä nainen pitää kädessään. Usein vastausta ei tule. Monelle kielelle tekoäly on oppinut puhumaan, mutta näkeminen ja vastaaminen yhtä aikaa on ollut pitkälti englannin varassa. Jo pitkään on ajateltu, että kunhan kielimalli on riittävän vahva, se

By Kari Jaaskelainen