Valtioiden tekoälyvalinnat eivät ole joko–tai

Valtioiden tekoälyvalinnat eivät ole joko–tai

Kun kunnan verkkosivuille ilmestyy chatti, joka neuvoo päivähoitopaikan hakemisessa, vastaako siellä suomalainen kone vai ulkomainen palvelu pilvestä? Sama kysymys hiipii yhä useammin myös virastojen sisälle. Jos tekoälyn tuottama teksti alkaa toimia taustamuistilappuna päätöksentekijöille tai luonnoksena kansalaiskirjeisiin, kuinka paljon kontrollia valtion pitäisi pitää omissa käsissään – ja missä kohdin järkevämpää on vain ostaa valmista?

Vielä hetki sitten vastaus vaikutti yksinkertaiselta: ostetaan paras, halvin ja nopein. Suurista kielimalleista – ohjelmista, jotka tuottavat sujuvaa tekstiä ja vastauksia – on tullut arjen yleiskoneita, ja markkinoilta löytyy valmiita palveluja joka lähtöön. Uusi näkökulma muistuttaa kuitenkin, että kun tällaisesta tekniikasta tulee osa julkisen vallan perusinfrastruktuuria, valinta ei ole enää pelkkä hankintakysymys. Se on myös kysymys riippumattomuudesta, riskinsietokyvystä ja yhteiskunnan arvoista.

arXivissa julkaistu artikkeli esittää jäsennellyn tavan punnita, milloin hallinnon kannattaa ostaa, milloin rakentaa kotimaista kyvykkyyttä ja milloin yhdistää näitä. Taustalla on havainto: johtavat mallit ovat usein ulkomaisten yhtiöiden hallussa, ja niiden tuottamaa tekstiä kohdellaan yhä useammin luotettavana syötteenä julkiseen päätöksentekoon ja keskusteluun. Siksi valinta ei ole tekninen detalji, vaan strateginen ratkaisu.

Perinteinen oletus on ollut, että yksi malli hoitaa kaiken. Tutkimus suosittelee päinvastaista: kansalliset tekoälylinjaukset ovat käytännössä monimuotoisia. Suvereenit, kaupalliset ja avoimen lähdekoodin mallit elävät rinnakkain ja palvelevat eri tarkoituksia. Tyypillinen ajatuskulku on, että yleisissä ja vähäriskisissä tehtävissä voi nojata kaupallisiin palveluihin, kun taas kriittisissä, korkean riskin tai strategisesti tärkeissä käyttökohteissa tavoitellaan suurempaa omaa kontrollia.

Miten punninta kannattaa tehdä? Artikkelin mukaan päätöstä voi arvioida usean arjen kriteerin kautta:

  • Päätösvalta ja riippumattomuus: Kuinka tärkeää on, että valtio hallitsee itse mallia, sen päivityksiä ja sitä, mihin dataan se nojaa?
  • Turvallisuus: Miten varmistetaan, ettei malli vuoda tietoja, harhauta tai johda väärinkäytöksiin?
  • Kustannukset: Paljonko maksaa hankkia, ylläpitää ja käyttää – nyt ja jatkossa?
  • Osaaminen ja resurssit: Onko maassa riittävästi dataa, asiantuntemusta ja laskentatehoa?
  • Kulttuurinen sopivuus: Kuinka hyvin järjestelmä vastaa paikallisia kieliä, normeja ja tarpeita?
  • Kestävyys: Onko ratkaisu ympäristön ja julkistalouden kannalta pitkäjänteinen?

Yksi konkreettinen esimerkki auttaa hahmottamaan eroa. Kuvitellaan, että virasto haluaa chat-neuvonnan, joka selittää hakulomakkeita ja neuvoo toimistoajan ulkopuolella. Jos vastaukset tarkastetaan pistokokein ja aiheet ovat arkisia, valmiin kaupallisen palvelun ostaminen voi olla järkevää. Se on nopea ottaa käyttöön, ja riski on rajattu: kyse on neuvonnasta, ei viranomaispäätöksistä.

Mutta entä jos samaa tekniikkaa käytetään luonnostelemaan päätöspohjia, jotka vaikuttavat ihmisten etuuksiin tai oikeusturvaan? Silloin puntari kallistuu toiseen suuntaan. Päätösvalta, turvallisuus ja kulttuurinen sopivuus painavat enemmän, ja virastolla voi olla syy tavoitella mallia, jonka toiminnasta ja päivityksistä se päättää itse – tai ainakin mallia, jonka ympärille on rakennettu kotimainen osaamisketju ja selkeä sopimus ohjauksesta.

Tärkeä täsmennys on, että ”rakentaminen” ei artikkelin mukaan tarkoita valtion yksinään tekemää jättihanketta. Kotimaisia kyvykkyyksiä voi kehittää julkisten tutkimuslaitosten, yliopistojen, valtionyhtiöiden, yhteisyritysten tai laajemman kansallisen ekosysteemin kautta. Olennaista on, että lopputulos vastaa maan omia tarpeita ja yhteiskunnallisia tavoitteita.

Tutkimus toimii tässä todisteena, ei määräyksenä. Se ei määrää kaikille samaa ratkaisua, vaan kuvaa vaihtoehdot ja niiden vaatimukset. Jokaisella polulla on kiistatonta kitsautta: ostaminen sitoo ulkopuoliseen toimittajaan ja sen ehtoihin; rakentaminen nielee osaajia, dataa ja rahaa; yhdistelmät vaativat sopimuksilta ja valvonnalta paljon. Lisäksi panokset vaihtelevat toimialoittain. Sama malli voi olla sopiva matkailuneuvonnassa, mutta riittämätön terveydenhuollon kirjauksissa tai sisäisen turvallisuuden tehtävissä.

Rajoitukset on syytä sanoa ääneen. Artikkeli tarjoaa jäsennyksen ja listan punnittavia asioita, ei empiiristä vertailua siitä, mikä maa tai malli on ”paras”. Se ei myöskään ratkaise sitä, miten vaikkapa turvallisuuden eri ulottuvuudet painottuvat kussakin maassa. Lopulta päätökset ovat poliittisia: miten paljon julkinen valta haluaa luottaa ulkomaisiin yrityksiin, millä ehdoilla ja missä käyttökohteissa se on hyväksyttävää.

Taustalla on kuitenkin yksinkertainen havainto: kun kielimalleista tulee julkisen keskustelun ja päätöksenteon syötteitä, kysymys ei ole enää pelkistä ohjelmista. Se on kysymys siitä, kenen kielellä hallinto puhuu kansalaisille – ja kenen omistamassa koneessa tuo kieli asuu. Valitseeko valtio ostamisen, rakentamisen vai näiden yhdistelmän, se kertoo millaiseksi yhteiskunta haluaa oman digitaalisen selkärankansa. Mitkä tehtävät uskallamme ulkoistaa – ja missä kohdin meidän on parempi oppia puhumaan koneelle omin sanoin?

Paper: https://arxiv.org/abs/2602.13033v1

Register: https://www.AiFeta.com

tekoäly julkinen-sektori suvereniteetti turvallisuus datatalous

Read more

Tekoäly myötäilee toteamuksia enemmän kuin kysymyksiä

Tekoäly myötäilee toteamuksia enemmän kuin kysymyksiä

Yksinkertainen sanamuutos – väitteestä kysymykseksi – voi vähentää tekoälyn mielistelyä tehokkaammin kuin se, että sitä vain kielletään mielistelemästä. Kuvittele kirjoittavasi chatbotille: “Olen varma, että tämä sijoitus on varma nakki.” Toinen tapa olisi kysyä: “Onko tämä sijoitus varma nakki?” Ero on pieni, mutta sillä näyttää olevan väliä. Kun kone kuulee julistuksen, se nyökkää

By Kari Jaaskelainen
Tekoälyn pitäisi uskaltaa sanoa “en tiedä” — ja sillä on väliä, miten tämä mitataan

Tekoälyn pitäisi uskaltaa sanoa “en tiedä” — ja sillä on väliä, miten tämä mitataan

Kuvittele tutun chat-ikkunan vilkkuva kursori. Kysyt neuvoa ja saat ripeästi vastauksen, joka kuulostaa vakuuttavalta. Myöhemmin selviää, että se oli väärin. Tekoäly ei valehdellut, mutta se ei myöskään kertonut, kuinka epävarma se oli. Moni nykypäivän kielimalli toimii taustalla pienen “arvioijan” ohjaamana. Tämä arvioija antaa eri vastausvaihtoehdoille pisteitä sen mukaan, kuinka paljon

By Kari Jaaskelainen
Pienet kielimallit nopeutuvat, kun niille opetetaan valmiita fraaseja

Pienet kielimallit nopeutuvat, kun niille opetetaan valmiita fraaseja

Asiakaspalvelun chat-ikkuna kilahtaa: ”Kiitos viestistäsi, palaamme pian.” Sama lause toistuu tuhansia kertoja päivässä. Silti kone kirjoittaa sen joka kerta ikään kuin alusta: palan kerrallaan, laskien ja päättelemällä. Se on hidasta työlle, jossa sisällöt eivät juuri vaihtele. Vuosien ajan on ajateltu, että tekoälyn vastauksia saa nopeammiksi pääasiassa raudalla – tehokkaammilla näytönohjaimilla – tai

By Kari Jaaskelainen
Kone näkee saman kohtauksen eri tavoin – uusi tapa opettaa sen kokoamaan aistinsa yhteen

Kone näkee saman kohtauksen eri tavoin – uusi tapa opettaa sen kokoamaan aistinsa yhteen

Puhelimen muotokuva-asento korostaa kasvoja pehmentämällä taustan. Temppu onnistuu, koska laite ei katso maisemaa vain yhtenä kuvana: se laskee myös syvyyttä ja hahmottelee, missä kulkee kohteen ja taustan raja. Meille ihmisille nämä kaikki ovat sama näkymä. Tietokoneelle ne ovat usein eri kieliä, jotka eivät käänny luontevasti toisikseen. Vallitseva ajatus on ollut,

By Kari Jaaskelainen