Somen vaalikoneisto ei ole enää robotti tai ihminen – se on molempia

Somen vaalikoneisto ei ole enää robotti tai ihminen – se on molempia

Ihmisten nimissä toimiva tekoäly tekee koordinoidusta vaikuttamisesta aiempaa vaikeammin tunnistettavaa ja vaikeammin säädeltävää – ja muuttaa demokratian arkea.

Olet ehkä huomannut sen omassa syötteessäsi: yhtäkkiä tuttavapiiristäsi useampi julkaisee lähes samanlaisen kannanoton. Kukaan heistä ei vaikuta valeprofiililta. Profiilikuvat ovat aitoja, kuvateksteissä vilahtavat lasten nimipäivät ja arkiset juoksulenkit. Silti lauseet toistavat samaa kaavaa, linkit vievät samaan artikkeliin, ja ajoitus on hämmentävän täsmällinen.

Vielä muutama vuosi sitten epäilykset olisivat kohdistuneet bottitehtaisiin – automaattisiin tileihin, jotka laukovat viestejä konemaisesti. Tuore arXivissa julkaistu katsaus ehdottaa, että tämä jako on käymässä vanhaksi. Kirjoittajat kuvaavat ilmiötä, jota he kutsuvat kyborgipropagandaksi: vaikuttamista, jossa suuri määrä todellisia ihmisiä toimii yhdessä algoritmien ja tekoälytyökalujen ohjaamana.

Miksi tämä on olennaista? Siksi, että järjestely kytkee yhteen kolme asiaa, jotka aiemmin nähtiin erillisinä: 1) aitojen kansalaisten verkoston, 2) taustalla toimivan automaation, joka seuraa mielialoja ja muokkaa ohjeita lennossa, ja 3) valmiit sisällöt, joita ihmiset hyväksyvät ja julkaisevat omissa nimissään. Lopputuloksena on itseään ruokkiva koneisto, jossa tekoäly tunnustelee, mikä puhuttelee yleisöä, ja säätää viestit ja toimintaohjeet sen mukaan. Kun viestit sitten lähtevät liikkeelle oikeiden ihmisten tileiltä, ne näyttävät orgaanisilta, vaikka ne ovat tiiviisti orkestroituja.

Yksi konkreettinen esimerkki auttaa hahmottamaan, miten tämä voi toimia. Kuvitellaan, että sovellus lähettää käyttäjälleen ilmoituksen: ”Tänään puolustamme polttoaineveron laskemista. Tässä kolme viestiluonnosta – valitse sinulle sopivin.” Tekoäly muokkaa sanamuotoja käyttäjän aiempien päivitysten, kielen ja kiinnostusten mukaan. Toiset saavat version, joka puhuu työmatkojen hinnasta, toiset ympäristökustannuksista. Julkaisun jälkeen järjestelmä seuraa, mihin sanamuotoon tarttuvat kommentoijat, missä ryhmissä viesti leviää ja milloin keskustelu tyrehtyy. Seuraavan päivän ohjeet syntyvät tästä oppimiskierteestä.

Tämä ei kuulosta enää bottiverkolta siinä perinteisessä mielessä, jossa automatisoidut tilit pommittavat samaa slogania tuhansilla toistoilla. Se on jotain muuta: ihmisten ja koneiden liitto, jossa ihminen antaa nimensä ja uskottavuutensa, algoritmi rytmittää ja muotoilee. Kirjoittajien mukaan juuri tämä tekee ilmiöstä vaikean lainsäädännölle. Säännöt ja valvonta, jotka on rakennettu robottiverkkojen varalle, eivät osu, jos viestit lähtevät aidosti vahvistetuista käyttäjätileistä. Vastuu hämärtyy: kuka on viestin tekijä, se joka klikkasi ”julkaise” vai se, joka suunnitteli ja kohdisti koko kampanjan?

Perinteinen ajatus demokratiasta pitää julkista tilaa areenana, jossa yksittäiset ihmiset esittävät näkemyksiään ja vaikuttavat toisiinsa. Katsauksen kirjoittajat katsovat, että kyborgipropaganda sysää keskustelua suuntaan, jossa kamppaillaan yhä enemmän kampanjoiden välillä – algoritmisesti viritettyjen koneistojen, ei niinkään yksittäisten ideoiden välillä. He kuvaavat ristiriidan, joka jakaa mielipiteitä: voiko tällainen järjestelmä ”ammatillistaa” kansalaisvaikuttamista – eräänlaisena vaikutusliittona, joka auttaa hajallaan olevia ääniä nousemaan kuuluviin? Vai muuttuuko kansalainen keskitetyn ohjauksen ”kognitiiviseksi välikappaleeksi”, joka vain vahvistaa annettua viestiä?

Tutkimus tarjoaa tässä vaiheessa ennen kaikkea kehyksen, ei lopullisia vastauksia. Kirjoittajat esittävät ohjelman jatkotyölle: miten erottaa luonteva, itse leviävä keskustelu koordinoidusta toiminnasta; millaiset säännöt sopivat tekoälyn avustamaan yhteisölliseen ilmaisuun; miten varmistaa, etteivät hyvät tarkoitukset – esimerkiksi kansalaisjärjestöjen tiedotus – joudu samalle viivalle peitellyn manipuloinnin kanssa. Heidän viestinsä on varovainen mutta selvä: pelkkä bottien metsästys ei enää riitä, kun vaikuttaminen kulkee ihmisten kautta.

On syytä huomata myös rajoitukset. Ensinnäkin ilmiön mittakaavasta ja tehokkuudesta on toistaiseksi vain rajattua näyttöä; katsaus hahmottaa arkkitehtuurin ja riskit, ei yksityiskohtaisia tapausanalyysejä. Toiseksi koordinoitu viestintä ei itsessään ole synti. Ammattiliitot, kansalaisliikkeet ja puolueet ovat aina laatineet puheenvuoropankkeja ja viestimalleja. Uutta on kiihtyvä taustaprosessi: tekoälyllä varustettu palautejärjestelmä, joka säätää ohjeistusta tunneissa, jopa minuuteissa, ja tekee kohdentamisesta aiempaa hienovaraisempaa. Lopuksi tekniset tunnistuskeinot ovat vaikeita. Saman sanamuodon toistuminen voi kertoa koordinaatiosta – tai vain siitä, että ajatus on iskevä ja siksi lainattava.

Mitä siis tehdä? Kirjoittajien mukaan tarvitaan keinoja, joilla kansalaisen autonomia säilyy ja läpinäkyvyys paranee, mutta jotka eivät tukahduta järjestäytynyttä ilmaisua. Se voi tarkoittaa esimerkiksi selkeää tietoa siitä, milloin sisältö on tuotettu tai muokattu tekoälyllä, tai velvoitteita kertoa, jos käyttäjä toimii osana koordinoitua kampanjaa. Yksityiskohdista he eivät lyö lukkoon, mutta korostavat, että sääntelyn pitää nähdä ihmisen ja koneen yhteispeli – ei vain toista niistä.

Arjen tasolla kysymys on yksinkertainen ja vaikea yhtä aikaa: kuka puhuu, kun sinä puhut netissä? Jos lauseen on ehdottanut sovellus, sävyä viilannut algoritmi ja julkaisuajankohdan päättänyt kampanjan taustajärjestelmä, missä kulkee oman mielipiteen raja? Demokratia on aina ollut yhteistoimintaa, mutta jos keskustelu muuttuu koneistojen mittelöksi, miten varmistamme, että ihmisten ääni ei huku niiden väliin?

Paper: https://arxiv.org/abs/2602.13088v1

Register: https://www.AiFeta.com

tekoäly politiikka some demokratia propaganda vaalit

Read more

Tekoäly myötäilee toteamuksia enemmän kuin kysymyksiä

Tekoäly myötäilee toteamuksia enemmän kuin kysymyksiä

Yksinkertainen sanamuutos – väitteestä kysymykseksi – voi vähentää tekoälyn mielistelyä tehokkaammin kuin se, että sitä vain kielletään mielistelemästä. Kuvittele kirjoittavasi chatbotille: “Olen varma, että tämä sijoitus on varma nakki.” Toinen tapa olisi kysyä: “Onko tämä sijoitus varma nakki?” Ero on pieni, mutta sillä näyttää olevan väliä. Kun kone kuulee julistuksen, se nyökkää

By Kari Jaaskelainen
Tekoälyn pitäisi uskaltaa sanoa “en tiedä” — ja sillä on väliä, miten tämä mitataan

Tekoälyn pitäisi uskaltaa sanoa “en tiedä” — ja sillä on väliä, miten tämä mitataan

Kuvittele tutun chat-ikkunan vilkkuva kursori. Kysyt neuvoa ja saat ripeästi vastauksen, joka kuulostaa vakuuttavalta. Myöhemmin selviää, että se oli väärin. Tekoäly ei valehdellut, mutta se ei myöskään kertonut, kuinka epävarma se oli. Moni nykypäivän kielimalli toimii taustalla pienen “arvioijan” ohjaamana. Tämä arvioija antaa eri vastausvaihtoehdoille pisteitä sen mukaan, kuinka paljon

By Kari Jaaskelainen
Pienet kielimallit nopeutuvat, kun niille opetetaan valmiita fraaseja

Pienet kielimallit nopeutuvat, kun niille opetetaan valmiita fraaseja

Asiakaspalvelun chat-ikkuna kilahtaa: ”Kiitos viestistäsi, palaamme pian.” Sama lause toistuu tuhansia kertoja päivässä. Silti kone kirjoittaa sen joka kerta ikään kuin alusta: palan kerrallaan, laskien ja päättelemällä. Se on hidasta työlle, jossa sisällöt eivät juuri vaihtele. Vuosien ajan on ajateltu, että tekoälyn vastauksia saa nopeammiksi pääasiassa raudalla – tehokkaammilla näytönohjaimilla – tai

By Kari Jaaskelainen
Kone näkee saman kohtauksen eri tavoin – uusi tapa opettaa sen kokoamaan aistinsa yhteen

Kone näkee saman kohtauksen eri tavoin – uusi tapa opettaa sen kokoamaan aistinsa yhteen

Puhelimen muotokuva-asento korostaa kasvoja pehmentämällä taustan. Temppu onnistuu, koska laite ei katso maisemaa vain yhtenä kuvana: se laskee myös syvyyttä ja hahmottelee, missä kulkee kohteen ja taustan raja. Meille ihmisille nämä kaikki ovat sama näkymä. Tietokoneelle ne ovat usein eri kieliä, jotka eivät käänny luontevasti toisikseen. Vallitseva ajatus on ollut,

By Kari Jaaskelainen