Tekoälyn säännöt syntyvät yrityksissä, eivät eduskunnissa

Tekoälyn säännöt syntyvät yrityksissä, eivät eduskunnissa

Moni on viime vuosina saanut ruudulleen viestin: ”En voi auttaa tässä.” Puhelimen avustaja tai keskusteleva tekoäly kieltäytyy kirjoittamasta ärhäkkää sähköpostia, auttamasta uhkapelissä tai neuvomasta lukon murtamisessa. Ystävällinen perustelu kuuluu: ”Se rikkoo periaatteitani.”

Kysymys kuuluu: kenen periaatteita ne ovat? Ja kuka päätti niistä?

On ollut helppo ajatella, että kun tekoälyä rakentava yhtiö julkaisee avoimen listan arvoista ja ohjeista, olemme oikealla tiellä. Läpinäkyvyys on edistystä verrattuna hämärään ”mustaan laatikkoon”. Tuore analyysi kuitenkin väittää, että tällaiset yritysten omat ”perustuslait” voivat samanaikaisesti sekä sivuuttaa kaikkein kriittisimmät tilanteet että lukita kiistanalaiset arvovalinnat pois julkisesta keskustelusta.

ArXiv-palvelussa julkaistu oikeudellinen ja demokratiateoreettinen artikkeli tarkastelee Anthropic-tekoälyyhtiön tämänvuotista, 79-sivuista sääntökirjaa, jota yhtiö kutsuu Claude-mallinsa ”perustuslaiksi”. Kirjoittajan johtopäätös on kaksijakoinen: asiakirja on filosofisesti huolellinen, mutta sen rakenteessa on kaksi perusvikaa.

Ensimmäinen liittyy poikkeuksiin juuri siellä, missä eettiset pidäkkeet olisivat tärkeimpiä. Analyysin mukaan perustuslaki ei kata kaikkia käyttötilanteita, vaan esimerkiksi Yhdysvaltain sotilasympäristöissä noudatetaan toisenlaisia sääntöjä. Paperi kuvaa tapauksen, jossa Clauden kerrotaan pysyneen osana Palantirin Maven-alustaa Iranissa tehtyjen sotilasiskujen aikaan, vaikka yhtiön teknologialle oli samalla asetettu hallituksen laajuinen kielto. Jos kuvaus pitää paikkansa, seurauksena on selvä ristiriita: julkinen sääntökirja ei yltänytkään niihin hetkiin, joissa päätökset koskevat henkeä, turvallisuutta ja sodankäyntiä.

Toinen vika on yllättävä: mitä kattavampi sääntökirja on, sitä vähemmän jää tilaa demokraattiselle erimielisyydelle. Kun yritys määrittelee yksityiskohtaisesti, mitä arvoja tekoälyn tulisi heijastaa, millainen moraalinen asema koneelle annetaan ja missä tilanteessa ”omatunnonvapaus” sallii kieltäytymisen, se ratkoo etukäteen kysymyksiä, joista yhteiskunnassa pitäisi yhä voida kiistellä. Läpinäkyvyys ei ole sama asia kuin demokraattinen valtuutus.

Arjessa tämä näkyy pieninä mutta merkityksellisinä hetkinä. Kuvitellaan vaikka tilanteita, joissa tekoälyltä pyydetään tukea kiistanalaisissa aiheissa – naisten oikeuksista, maahanmuutosta tai sodasta. Sääntökirja määrää, miten malli tasapainottaa haitan välttämisen ja sananvapauden, millä äänensävynä se puhuu ja mihin se vetää rajan. Kysymys ei ole vain tekniikasta vaan yhteisistä säännöistä siitä, mikä on sopivaa.

Artikkeli tuo esiin myös konkreettisen vertailun. Anthropic kokeili jo vuonna 2023 osallistuvaa tapaa laatia nämä periaatteet: osa säännöistä kerättiin yleisöltä. Kirjoittajan mukaan yrityksen sisäisesti kirjoitetut periaatteet ja yleisön tuottamat erosivat noin puolella kohdista. Lisäksi ”demokraattisempi” versio tuotti testatuissa tilanteissa vähemmän vinoumaa yhdeksällä sosiaalisella ulottuvuudella – toisin sanoen malli kohteli erilaisia ihmisryhmiä tasaisemmin. Silti vuoden 2026 perustuslaki ei analyysin mukaan sisällytä näiden kokeilujen havaintoja.

Vinouma on sana, jota käytetään usein, mutta sen voi avata arkisesti. Jos pyydät neuvoja työhaastatteluun, vinoutunut malli antaa eri laatuisia ohjeita riippuen siitä, millaisen nimen, iän tai taustan sille kerrot. Kun säännöt muuttuvat, muuttuu myös se, miten tasapuolisesti malli toimii. Siksi se, kuka säännöt kirjoittaa, ei ole sivuseikka.

Kirjoittaja tiivistää ongelman ”poliittisen yhteisön vajeeksi”: meiltä puuttuu demokraattisesti valtuutettu taho, joka päättäisi tekoälyn käytöstä ohjaavista periaatteista. Yrityksen avoimuus on hyvä asia, mutta avoimuus ei yksin tee säännöistä yhteisesti sovittuja. Ajatus koskee myös niitä, jotka toivovat nopeaa itsesäätelyä – valtaa käyttävät silloin ne, joita kukaan ei ole valinnut.

Tämä ei ole huuto paniikkiin vaan kutsu täsmentää vastuut. Artikkeli ei tarjoa valmista lakipakettia, vaan oikeusteoreettisen analyysin ja esimerkinomaisia tapauskertomuksia. Se on rajaus, joka kannattaa pitää mielessä. Kuvattu sotilaskäyttö ja kiellot ovat kirjoittajan esittämiä; niitä ei tässä yhteydessä ole riippumattomasti todennettu. Lisäksi on mahdollista, että yritys katsoo erillisten sääntöjen olevan välttämättömiä kansallisen turvallisuuden kaltaisissa ympäristöissä. Myös mittarit, joilla vinoumaa arvioidaan, ovat aina valintoja, ja valintojen oikeellisuudesta voidaan olla eri mieltä.

Silti esiin nousee hankala peruskysymys: jos tekoälyjärjestelmät ovat yhä useammin tie neuvoihin, tietoon ja palveluihin – ikään kuin uusi julkinen tila – kenen pitäisi päättää niiden käytöstä? Parlamenttien, riippumattomien viranomaisten, standardointielinten vai jonkin täysin uuden, rajat ylittävän kokoonpanon? Ja miten varmistetaan, että keskusteluun pääsevät mukaan ne, joiden arkeen päätökset vaikuttavat – eivät vain insinöörit ja juristit, vaan myös opettajat, hoitajat, yrittäjät ja oppilaat?

Yritysten laatimat sääntökirjat voivat olla hyödyllisiä välivaiheita: ne tekevät näkyväksi arvovalinnat, joita tekoäly joka tapauksessa tekee. Mutta jos kaikki tärkeät valinnat ehditään ratkaista valmiiksi kokoushuoneissa, mitä jää demokratialle? Kun seuraavan kerran tekoäly sanoo ”en voi auttaa, se rikkoo periaatteitani”, kysymys kääntyy takaisin meille: haluammeko, että nuo periaatteet ovat yritysten kirjoittamia – vai yhteisesti sovittuja?

Paper: https://arxiv.org/abs/2604.02912v1

Register: https://www.AiFeta.com

tekoäly demokratia yritysvastuu etiikka oikeus politiikka teknologia USA

Read more

Pieni kielimalli oppi kysymään taulukoilta ihmisen puolesta

Pieni kielimalli oppi kysymään taulukoilta ihmisen puolesta

Moni on tuijottanut Exceliä ja toivonut voivansa vain kysyä: missä kaupunginosissa koti on kävelymatkan päässä terveysasemasta ja ruokakaupasta? Ihmismielelle yksinkertainen pyyntö muuttuu helposti tuntien suodatukseksi ja kaavanviilaukseksi. Tietokone kyllä tietää vastauksen – jos vain osaisimme puhua sen kieltä. Viime vuosina apua on pyydetty juttelevalta tekoälyltä. Se osaa etsiä ja tiivistää tekstejä,

By Kari Jaaskelainen
Tekoäly vastaa fiksummin, kun sille annetaan oikea tieto oikealla tavalla

Tekoäly vastaa fiksummin, kun sille annetaan oikea tieto oikealla tavalla

Katsaus kokoaa, miten kielimalleja voi vahvistaa antamalla niille jäsenneltyä lisätietoa vastaushetkellä – yksinkertaisista vihjeistä aina syy–seurausketjuiksi järjestettyyn taustaan. Kuvittele, että pyydät tekoälyä selittämään, mitä uusi lakimuutos tarkoittaa pienyrittäjälle. Yleismallinen kielimalli osaa puhua aiheesta sujuvasti, mutta jos laki on muuttunut äskettäin, vastauksessa voi olla vanhaa tietoa tai epävarmoja arvailuja. Sama kokemus

By Kari Jaaskelainen
Tekoäly voi olla sekä nopea että säästeliäs – jos se oppii milloin ajatella ääneen

Tekoäly voi olla sekä nopea että säästeliäs – jos se oppii milloin ajatella ääneen

Kuvittele chat-ikkuna, jossa vastaus alkaa rönsyillä: ensin pari perustelua, sitten varmistus, lopulta vielä varmistuksen varmistus. Käyttäjä odottaa, laskutus juoksee. Tekoälymallit hinnoitellaan usein “tokeneina” – sananpaloina – joten jokainen turha kiemura maksaa sekä aikaa että rahaa. Vuosia alalla vallitsi hiljainen oletus: mitä enemmän mallilla on laskentatehoa ja mitä pidemmin se ”miettii”, sitä parempaa

By Kari Jaaskelainen