Kun tekoälyt toimivat ryhmänä, luottamus ja säännöt kannattaa opettaa – ei kirjoittaa käsin
Oppiva logiikka lupaa tehdä monen tekoälyn yhteistyöstä selitettävämpää ja helpommin korjattavaa, kun luottamus, syyt ja säännöt oppivat suoraan datasta.
Kuvitellaan arkinen tilanne ohjelmistotalossa: joukko tekoälyjä hoitaa asiakastukea. Yksi luokittelee viestit, toinen ehdottaa vastauksia, kolmas päättää, milloin siirtää asian ihmiselle. Eräänä aamuna kasa tikettejä on merkitty väärin kiireellisiksi. Kuka toimi väärin – ja miksi? Tiesikö joku parempaa mutta ei saanut ääntään kuuluviin? Oliko sääntö, jonka piti estää tämä, epäselvä tai ristiriidassa toisen säännön kanssa?
Tällaiset kysymykset kuulostavat inhimillisiltä, mutta niihin vastaaminen on välttämätöntä myös koneille. Silti perinteiset keinot eivät ole olleet kovin sopivia. Yksi lähestymistapa luottaa mustiin laatikoihin: neuroverkot, jotka ennustavat oikein usein, mutta eivät selitä, kuka luotti keneen tai mikä sääntö ohjasi päätöstä. Toinen lähestymistapa on käsin kirjoitettu sääntökokoelma, joka edellyttää valmiiksi piirrettyä karttaa siitä, kuka tietää mitä, kuka uskoo ketä ja mitkä tapahtumat johtavat toisiin. Todellisissa järjestelmissä tämä kartta on harvoin täydellinen ja voi muuttua lennossa.
Tuore arXiv-opas ehdottaa väliintietä: oppivaa, niin sanottua eriäväisyyksiin mukautuvaa logiikkaa, joka yrittää yhdistää selkeät säännöt ja datasta oppimisen. Ajatuksena on käyttää logiikkaa, joka on suunniteltu kuvaamaan tietoa, uskomuksia, syy-seuraussuhteita ja velvollisuuksia – mutta antaa järjestelmän oppia näiden väliset suhteet omasta käyttäytymisestään. Kun kone tekee ristiriitaisen päätöksen, ristiriita muuttuu mitattavaksi virheeksi, jota oppiminen yrittää pienentää.
Käytännössä opas esittelee niin sanotun eriytyvän modalilogiikan (englanniksi differentiable modal logic) ja sen toteutuksen hermoverkoissa. Sana ”modal” viittaa siihen, että pelkän ”tosi” tai ”epätosi” -arvion sijaan tarkastellaan myös vivahteita: kuka tietää, mitä oletetaan, mitä saa tai pitää tehdä ja milloin jokin tapahtuma johtaa toiseen. Opas jakaa aiheen neljään konkreettiseen näkökulmaan:
- Tiedollinen: kuka tietää mitä ja ketä kannattaa uskoa.
- Ajallinen: milloin jokin tapahtuma aiheutti toisen, eli missä kohtaa ketju katkesi.
- Normatiivinen: mitä on luvallista tai kiellettyä.
- Uskomuksellinen: miten tulkita toimijan itsevarmuutta tai epäröintiä.
Uutta on se, että näitä ei kirjoiteta kokonaan käsin. Järjestelmä oppii esimerkiksi luottamusverkoston suoraan havainnoista: jos agentti A kertoo usein sellaista, jonka agentti B myöhemmin vahvistaa, A:han kannattaa suhtautua myönteisemmin – paitsi jos C paljastaa, että A liioittelee tietyissä tilanteissa. Tulos ei jää piilotetuksi numeromössöksi, vaan luottamuksen voimakkuus on selkeä, säädettävä parametri.
Yksi oppaan esimerkeistä tulee lautapelistä, jossa pelaajat solmivat ja pettävät liittoumia. Pelissä on tärkeää arvioida, kuka esittää vilpittömiä ehdotuksia ja kuka yrittää käyttää muita hyväkseen. Opittava logiikka rakentaa pelkän pelikuvan perusteella kartan siitä, keneen kannattaa uskoa missäkin vaiheessa. Kun pelaajien väitteet joutuvat törmäyskurssille, törmäys näkyy oppimisessa virheenä, joka ohjaa järjestelmää korjaamaan luottamussuhteita. Lopputulos ei ole täydellinen totuus – sellaista ei ole pelissä olemassakaan – vaan selkeästi luettavissa oleva näkemys siitä, kuka on osoittautunut luotettavaksi ja millä ehdoilla.
Toinen esimerkki käsittelee tekoälymallien niin sanottuja harhoja: tilanteita, joissa malli vastaa itsevarmasti väärin. Täällä uskomusten ja tiedon raja on tärkeä. Jos järjestelmä oppii, milloin sen oma ”itsevarmuus” on ollut aiemmin aiheellista ja milloin ei, se voi päätellä, milloin kannattaa pyytää vahvistusta toiselta agentilta tai ihmiseltä. Taustalla on sama periaate: säännöt – esimerkiksi ”älä luota yksin omaan arveluusi lääketieteessä” – voidaan kirjoittaa pehmeiksi rajoitteiksi, joita oppiminen kunnioittaa, vaikka data olisi niukkaa.
Opas väittää kolme etua. Ensinnäkin opitut rakenteet ovat selkeitä: luottamus, syyketjut ja sääntörajoitukset esiintyvät niminä ja numeroina, eivät vaikeasti tulkittavina upotuksina. Toiseksi asiantuntijatietoa voi ujuttaa oppimiseen eräänlaisten pehmeiden aksioomien avulla: ”jos A tietää X:n, myös A:n tiimikaveri todennäköisesti tietää sen” ohjaa oppimista ilman, että pakottaa tuloksen. Kolmanneksi eri näkökulmia voi yhdistää. Sama järjestelmä voi samanaikaisesti tarkastella, kuka tiesi mitä, mikä aiheutti vian ja mikä oli sallittua.
Toteutus ei jää paperille: tekijä julkaisee esimerkit ajettavina muistikirjoina. Tämä on tärkeää, koska väitteen ydin on käytännöllinen: logiikan ristiriidat voidaan kirjoittaa suoraan oppimisen tavoitteiksi. Sen seurauksena ”kuka mokasi?” ei ole enää pelkkä syyttelykysymys, vaan asia, jonka parametreja voi mitata ja säätää.
Mutta rajoituksia on. Kyse on oppaasta ja mallikodeista, ei laajamittaisesta kenttätestistä. Opitut suhteet ovat niin hyviä kuin se data, josta ne päätellään. Jos järjestelmä näkee vain tietynlaisia tilanteita, sen käsitys luottamuksesta ja säännöistä voi vääristyä. Myös pehmeät säännöt ovat juuri sitä – pehmeitä. Ne auttavat suuntaamaan oppimista, mutta eivät takaa, että kaikki järjestelmän teot noudattavat jokaisessa tilanteessa ihmisen odotuksia. Lisäksi jonkun täytyy valita, mitä sääntöjä ja oletuksia ylipäätään käytetään. Valinnat vaikuttavat suoraan siihen, millaisia selityksiä järjestelmä tarjoaa.
On myös avoin kysymys, miten hyvin lähestymistapa skaalaa järjestelmiin, joissa on kymmeniä tai satoja toimijoita ja jatkuvasti muuttuvat suhteet. Yksityiskohtainen luottamusverkko on hyödyllinen, mutta sen ylläpito voi olla raskasta. Ja vaikka opas esittelee malleja valvontaan, ohjaukseen ja viestintään, mikään näistä ei yksin ratkaise peruskysymystä: mitä tavoitteita koneiden pitäisi ylipäätään tavoitella yhdessä ihmisten kanssa.
Silti ajatus on houkutteleva. Jos monen tekoälyn kokoonpano voi oppia itse, keneltä kannattaa kysyä, milloin jokin meni rikki ja mikä on sääntöjen mukaan sopivaa, saamme vihdoin välineen, joka muistuttaa ihmissilmin luettavaa karttaa. Sellaista karttaa on vaikea rakentaa käsin ja vielä vaikeampi pitää ajan tasalla.
Lopulta kysymys on vähemmän tekniikasta ja enemmän hallinnasta: jos luottamus, syyt ja säännöt muuttuvat numeroiksi, joita voidaan oppia ja säätää, kuka päättää asteikot? Ja haluammeko, että myös ihmisten organisaatiot omaksuvat saman tavan katsoa toisiaan?
Paper: https://arxiv.org/abs/2602.12083v1
Register: https://www.AiFeta.com
tekoäly logiikka moniaagenttijärjestelmät selitettävyys tutkimus