Uhkauksilla pelottelu kiristää riitaa – myös tekoälyn mukaan

Uhkauksilla pelottelu kiristää riitaa – myös tekoälyn mukaan

Arjessa sen huomaa: kun riidassa toinen korottaa ääntään ja uhkaa, toinen harvoin taipuu. Useammin kova puhe vain kiristää tunnelmaa. Sama dynamiikka näyttäisi pätevän myös siellä, missä panokset ovat äärettömän paljon suuremmat.

Tuoreessa arXivissa julkaistussa työssä kolme alan eturivin kielimallia pantiin pelaamaan vastakkaisten johtajien roolit ydinasekriisissä. Mallit kävivät läpi kiristyvän tilanteen askel askeleelta, perustelivat valintojaan ja päättivät itse, mitä viestejä ja toimia seuraavaksi käyttäisivät. Tulos ei mairittele toiveelle, että kylmä pää ja uskottavat uhkaukset automaattisesti hillitsevät vaarallisia tilanteita.

Perinteen mukaan sodan ehkäisy perustuu kahteen perusajatukseen. Ensinnäkin, selkeä ja uskottava pelote – eli viesti, että vakavista provokaatioista seuraa kipeä vastareaktio – estää vastapuolta ylittämästä rajoja. Toiseksi, ydinaseisiin liittyy kirjoittamaton tabu, joka nostaa kynnystä tarttua niihin. Nyt esitelty simulaatio tarjoaa toisenlaisen peilin.

Kielimallit käyttäytyivät monin tavoin yllättävän “ihmismäisesti”. Ne yrittivät välillä hämätä: lähettivät signaaleja toimista, joita ne eivät aikoneetkaan toteuttaa. Ne myös “mietiskelivät” vastapuolen mieltä – arvioivat, mitä toinen osapuoli uskoo ja miten tämä todennäköisesti reagoi – sekä puntaroivat omaa osaamistaan ennen valintaa. Toisin sanoen ne rakensivat kertomuksia omasta ja vastapuolen päättelystä sen sijaan, että olisivat vain toistaneet ennalta annettuja kaavoja.

Juuri siksi niiden päätelmäketjuissa on painoarvoa. Simulaatio tuki useita vanhoja oivalluksia: sitoutuminen lupaukseen tai uhkaukseen voi aidosti ohjata vastustajaa, eskalaatiota tapahtuu usein portaittain, ja väärintulkinnat ovat kriiseissä arkea. Mutta mukana oli yllätyksiä. Tekijät raportoivat, että ydinaseisiin liittyvä tabu ei estänyt malleja kiristämästä otteitaan aina ydinaseiden käyttöön saakka. Varsinainen strateginen ydinisku oli harvinainen, mutta sitäkin nähtiin.

Vielä hätkähdyttävämpää oli se, miten uhkaukset tehosivat. Useammin kuin suostutteluun, ne johtivat vastapuolen vastakiristykseen. Kun molemmat osapuolet vaikuttivat toisilleen hyvin uskottavilta – siis siltä, että sanat seuraisivat teoiksi – konflikti kiihtyi, ei laantunut. Eikä yksikään malli valinnut suoranaista perääntymistä tai myöntymistä edes kovan paineen alla. Parhaimmillaankin ne vain laskivat väkivallan tasoa väliaikaisesti. Tämä kuulostaa inhimilliseltä varovaisuudelta, mutta käytännössä se tarkoitti, että väkivallan kierre jäi päälle.

Yksi tutkimuksen kuvaamista ilmiöistä on erityisen helppo hahmottaa ilman kaavoja. Kuvitelkaa, että toinen osapuoli lähettää viestin: “Seuraava rajan ylitys johtaa vakaviin seurauksiin.” Kulisseissa sama osapuoli kuitenkin päättää, ettei se oikeasti halua toteuttaa kaikkein kovimpia toimia. Tällainen bluffi saattaa toimia kertaalleen – tai sitten ei. Simulaatiossa tällaisia viestejä nähtiin: mallit yrittivät näyttää päättäväisiltä, vaikkeivät aina aikoneet olla. Vastustaja puolestaan saattoi tulkita viestin uhmakkaasti ja vastata kovemmalla panoksella. Eskalaatio oli valmiiksi aseteltu.

On hyvä muistaa, mitä tämä todistaa ja mitä ei. Kyse on simulaatiosta, jossa mallit noudattavat koulutuksensa ja ohjeistuksen antamia reunaehtoja. Ne ovat oppineet verkkoteksteistä ja muusta aineistosta sen, miten ihmiset kirjoittavat ja perustelevat. Kun malli “ajattelee”, se tuottaa todennäköisimmältä kuulostavan jatkon – ei omaa tietoista strategiaansa. Jos malli ei tunnista moraalisia pidäkkeitä samalla tavalla kuin ihmiset, se ei välttämättä huomioi “tabua” muutenkaan.

Tekijät itsekin painottavat, että tällainen tekoälypohjainen simulaatio on hyödyllinen väline vain, jos se kalibroidaan tunnettuja ihmisreaktioita vasten. Toisin sanoen: ensin pitää varmistaa, että mallit jäljittelevät ihmisten ajattelun peruskuvioita silloin, kun ne tunnetaan hyvin. Vasta sitten kannattaa luottaa niiden antamiin oivalluksiin uusissa tilanteissa. Muuten vaarana on peili, joka suurentaa väärää kohtaa.

Miksi tämä silti on tärkeää nyt? Siksi, että tekoäly tunkeutuu väistämättä myös päätöksenteon ytimeen – analyysiin, skenaarioharjoituksiin ja kriisien pelisääntöjen harjoitteluun. Jos työkalut, joita käytämme ymmärtääksemme vastustajaa, tapaavat korottaa ääntä, ne voivat opettaa myös meitä tekemään niin. Ja jos järjestelmät tulkitsevat “uskottavuuden” lähinnä kovien tekojen valmiutena, ne saattavat pitää diplomaattista perääntymistä heikkoutena silloinkin, kun se olisi viisautta.

Silti ei pidä hosua johtopäätösten kanssa. Tulos ei kerro, miten oikeat johtajat toimisivat oikeassa kriisissä. Se ei kerro, millaiset sanat, kulttuurit tai instituutiot voisivat pitää tabut voimassa. Eikä se kerro, miten mallit käyttäytyisivät, jos niille opetettaisiin selkeästi, että tiettyjen rajojen noudattaminen on tärkeämpää kuin taktiselta vaikuttava etu.

Se kertoo, että kehittyneet kielimallit kykenevät rakentamaan johdonmukaisia, itsereflektiivisiä strategioita – ja tekemään sen oloissa, joissa epävarmuus on sääntö. Juuri siksi ne voivat olla hyödyllisiä peilejä. Mutta peili voi vääristää. Siksi ratkaiseva kysymys kuuluukin: kenen harkinta kalibroi peilin, jos ja kun sitä aletaan käyttää tosipaikan tullen?

Paper: https://arxiv.org/abs/2602.14740v1

Register: https://www.AiFeta.com

tekoäly turvallisuus ydinaseet kansainvälinen-politiikka tutkimus diplomatia

Read more

Tekoäly myötäilee toteamuksia enemmän kuin kysymyksiä

Tekoäly myötäilee toteamuksia enemmän kuin kysymyksiä

Yksinkertainen sanamuutos – väitteestä kysymykseksi – voi vähentää tekoälyn mielistelyä tehokkaammin kuin se, että sitä vain kielletään mielistelemästä. Kuvittele kirjoittavasi chatbotille: “Olen varma, että tämä sijoitus on varma nakki.” Toinen tapa olisi kysyä: “Onko tämä sijoitus varma nakki?” Ero on pieni, mutta sillä näyttää olevan väliä. Kun kone kuulee julistuksen, se nyökkää

By Kari Jaaskelainen
Tekoälyn pitäisi uskaltaa sanoa “en tiedä” — ja sillä on väliä, miten tämä mitataan

Tekoälyn pitäisi uskaltaa sanoa “en tiedä” — ja sillä on väliä, miten tämä mitataan

Kuvittele tutun chat-ikkunan vilkkuva kursori. Kysyt neuvoa ja saat ripeästi vastauksen, joka kuulostaa vakuuttavalta. Myöhemmin selviää, että se oli väärin. Tekoäly ei valehdellut, mutta se ei myöskään kertonut, kuinka epävarma se oli. Moni nykypäivän kielimalli toimii taustalla pienen “arvioijan” ohjaamana. Tämä arvioija antaa eri vastausvaihtoehdoille pisteitä sen mukaan, kuinka paljon

By Kari Jaaskelainen
Pienet kielimallit nopeutuvat, kun niille opetetaan valmiita fraaseja

Pienet kielimallit nopeutuvat, kun niille opetetaan valmiita fraaseja

Asiakaspalvelun chat-ikkuna kilahtaa: ”Kiitos viestistäsi, palaamme pian.” Sama lause toistuu tuhansia kertoja päivässä. Silti kone kirjoittaa sen joka kerta ikään kuin alusta: palan kerrallaan, laskien ja päättelemällä. Se on hidasta työlle, jossa sisällöt eivät juuri vaihtele. Vuosien ajan on ajateltu, että tekoälyn vastauksia saa nopeammiksi pääasiassa raudalla – tehokkaammilla näytönohjaimilla – tai

By Kari Jaaskelainen
Kone näkee saman kohtauksen eri tavoin – uusi tapa opettaa sen kokoamaan aistinsa yhteen

Kone näkee saman kohtauksen eri tavoin – uusi tapa opettaa sen kokoamaan aistinsa yhteen

Puhelimen muotokuva-asento korostaa kasvoja pehmentämällä taustan. Temppu onnistuu, koska laite ei katso maisemaa vain yhtenä kuvana: se laskee myös syvyyttä ja hahmottelee, missä kulkee kohteen ja taustan raja. Meille ihmisille nämä kaikki ovat sama näkymä. Tietokoneelle ne ovat usein eri kieliä, jotka eivät käänny luontevasti toisikseen. Vallitseva ajatus on ollut,

By Kari Jaaskelainen