Uhkauksilla pelottelu kiristää riitaa – myös tekoälyn mukaan
Arjessa sen huomaa: kun riidassa toinen korottaa ääntään ja uhkaa, toinen harvoin taipuu. Useammin kova puhe vain kiristää tunnelmaa. Sama dynamiikka näyttäisi pätevän myös siellä, missä panokset ovat äärettömän paljon suuremmat.
Tuoreessa arXivissa julkaistussa työssä kolme alan eturivin kielimallia pantiin pelaamaan vastakkaisten johtajien roolit ydinasekriisissä. Mallit kävivät läpi kiristyvän tilanteen askel askeleelta, perustelivat valintojaan ja päättivät itse, mitä viestejä ja toimia seuraavaksi käyttäisivät. Tulos ei mairittele toiveelle, että kylmä pää ja uskottavat uhkaukset automaattisesti hillitsevät vaarallisia tilanteita.
Perinteen mukaan sodan ehkäisy perustuu kahteen perusajatukseen. Ensinnäkin, selkeä ja uskottava pelote – eli viesti, että vakavista provokaatioista seuraa kipeä vastareaktio – estää vastapuolta ylittämästä rajoja. Toiseksi, ydinaseisiin liittyy kirjoittamaton tabu, joka nostaa kynnystä tarttua niihin. Nyt esitelty simulaatio tarjoaa toisenlaisen peilin.
Kielimallit käyttäytyivät monin tavoin yllättävän “ihmismäisesti”. Ne yrittivät välillä hämätä: lähettivät signaaleja toimista, joita ne eivät aikoneetkaan toteuttaa. Ne myös “mietiskelivät” vastapuolen mieltä – arvioivat, mitä toinen osapuoli uskoo ja miten tämä todennäköisesti reagoi – sekä puntaroivat omaa osaamistaan ennen valintaa. Toisin sanoen ne rakensivat kertomuksia omasta ja vastapuolen päättelystä sen sijaan, että olisivat vain toistaneet ennalta annettuja kaavoja.
Juuri siksi niiden päätelmäketjuissa on painoarvoa. Simulaatio tuki useita vanhoja oivalluksia: sitoutuminen lupaukseen tai uhkaukseen voi aidosti ohjata vastustajaa, eskalaatiota tapahtuu usein portaittain, ja väärintulkinnat ovat kriiseissä arkea. Mutta mukana oli yllätyksiä. Tekijät raportoivat, että ydinaseisiin liittyvä tabu ei estänyt malleja kiristämästä otteitaan aina ydinaseiden käyttöön saakka. Varsinainen strateginen ydinisku oli harvinainen, mutta sitäkin nähtiin.
Vielä hätkähdyttävämpää oli se, miten uhkaukset tehosivat. Useammin kuin suostutteluun, ne johtivat vastapuolen vastakiristykseen. Kun molemmat osapuolet vaikuttivat toisilleen hyvin uskottavilta – siis siltä, että sanat seuraisivat teoiksi – konflikti kiihtyi, ei laantunut. Eikä yksikään malli valinnut suoranaista perääntymistä tai myöntymistä edes kovan paineen alla. Parhaimmillaankin ne vain laskivat väkivallan tasoa väliaikaisesti. Tämä kuulostaa inhimilliseltä varovaisuudelta, mutta käytännössä se tarkoitti, että väkivallan kierre jäi päälle.
Yksi tutkimuksen kuvaamista ilmiöistä on erityisen helppo hahmottaa ilman kaavoja. Kuvitelkaa, että toinen osapuoli lähettää viestin: “Seuraava rajan ylitys johtaa vakaviin seurauksiin.” Kulisseissa sama osapuoli kuitenkin päättää, ettei se oikeasti halua toteuttaa kaikkein kovimpia toimia. Tällainen bluffi saattaa toimia kertaalleen – tai sitten ei. Simulaatiossa tällaisia viestejä nähtiin: mallit yrittivät näyttää päättäväisiltä, vaikkeivät aina aikoneet olla. Vastustaja puolestaan saattoi tulkita viestin uhmakkaasti ja vastata kovemmalla panoksella. Eskalaatio oli valmiiksi aseteltu.
On hyvä muistaa, mitä tämä todistaa ja mitä ei. Kyse on simulaatiosta, jossa mallit noudattavat koulutuksensa ja ohjeistuksen antamia reunaehtoja. Ne ovat oppineet verkkoteksteistä ja muusta aineistosta sen, miten ihmiset kirjoittavat ja perustelevat. Kun malli “ajattelee”, se tuottaa todennäköisimmältä kuulostavan jatkon – ei omaa tietoista strategiaansa. Jos malli ei tunnista moraalisia pidäkkeitä samalla tavalla kuin ihmiset, se ei välttämättä huomioi “tabua” muutenkaan.
Tekijät itsekin painottavat, että tällainen tekoälypohjainen simulaatio on hyödyllinen väline vain, jos se kalibroidaan tunnettuja ihmisreaktioita vasten. Toisin sanoen: ensin pitää varmistaa, että mallit jäljittelevät ihmisten ajattelun peruskuvioita silloin, kun ne tunnetaan hyvin. Vasta sitten kannattaa luottaa niiden antamiin oivalluksiin uusissa tilanteissa. Muuten vaarana on peili, joka suurentaa väärää kohtaa.
Miksi tämä silti on tärkeää nyt? Siksi, että tekoäly tunkeutuu väistämättä myös päätöksenteon ytimeen – analyysiin, skenaarioharjoituksiin ja kriisien pelisääntöjen harjoitteluun. Jos työkalut, joita käytämme ymmärtääksemme vastustajaa, tapaavat korottaa ääntä, ne voivat opettaa myös meitä tekemään niin. Ja jos järjestelmät tulkitsevat “uskottavuuden” lähinnä kovien tekojen valmiutena, ne saattavat pitää diplomaattista perääntymistä heikkoutena silloinkin, kun se olisi viisautta.
Silti ei pidä hosua johtopäätösten kanssa. Tulos ei kerro, miten oikeat johtajat toimisivat oikeassa kriisissä. Se ei kerro, millaiset sanat, kulttuurit tai instituutiot voisivat pitää tabut voimassa. Eikä se kerro, miten mallit käyttäytyisivät, jos niille opetettaisiin selkeästi, että tiettyjen rajojen noudattaminen on tärkeämpää kuin taktiselta vaikuttava etu.
Se kertoo, että kehittyneet kielimallit kykenevät rakentamaan johdonmukaisia, itsereflektiivisiä strategioita – ja tekemään sen oloissa, joissa epävarmuus on sääntö. Juuri siksi ne voivat olla hyödyllisiä peilejä. Mutta peili voi vääristää. Siksi ratkaiseva kysymys kuuluukin: kenen harkinta kalibroi peilin, jos ja kun sitä aletaan käyttää tosipaikan tullen?
Paper: https://arxiv.org/abs/2602.14740v1
Register: https://www.AiFeta.com
tekoäly turvallisuus ydinaseet kansainvälinen-politiikka tutkimus diplomatia