Harvinaiset riskit löytyvät paremmin, kun tavallinen ajaminen tunnetaan tarkasti
Useimmat vaaratilanteet eivät ala jarrujen ulvonnasta. Ne syntyvät hiljalleen: ajolinja hivuttautuu kaistaviivan yli, risteyksessä ohjaus epäröi, kiihdytys on nykivää. Ihmiskuljettaja korjaa pienen horjahduksen huomaamattaan. Itseajavan auton on osattava huomata sama ajoissa – ja erotettava arkinen poikkeama todellisesta vaarasta.
Itseajamisen turvallisuuden koetinkiveksi on muodostunut pitkän hännän ongelma: harvinaiset mutta vakavat tilanteet, joita ei osata ennakoida etukäteen listaksi sääntöjä. Tähän asti on nojauduttu käsin laadittuihin tarkistuslistoihin ja suodattimiin. Ne toimivat tavallisessa arkiajossa, mutta skaalautuvat huonosti harvinaisuuksiin – juuri niihin, joista turvallisuus lopulta riippuu.
Uusi arXiv-julkaisu ehdottaa käännöstä ajattelussa. Sen ydin on yllättävän arkinen: kuvataan mahdollisimman tarkasti, miltä ihmisen normaali ajaminen näyttää, ja liputetaan kaikki siitä poikkeava. Sen sijaan, että yritetään ennakolta luetella kaikki vaaralliset kuviot, rakennetaan jatkuva ”todennäköisyyskartta” tavallisesta liikkeestä ja mitataan, kuinka epätavallinen yksittäinen ajosuoritus on.
Tutkijoiden kehittämä lähestymistapa, nimeltään Deep-Flow, tekee tämän opettelemalla datasta ihmiskuljettajien käyttäytymisen todennäköisyysjakauman. Se välttelee raakadatan horjuvuutta puristamalla ajolinjat ensin muutamaan keskeiseen liikkeen peruskuvioon. Näin liike pysyy luontaisesti pehmeänä ja jatkuvana, ja jokaiselle ajosuoritukselle voidaan laskea vakaa pistemäärä: kuinka todennäköistä on, että kokenut kuljettaja toimisi näin. Menetelmä oppii ilman valmiita simulaatioita tai käsin kirjoitettuja sääntöjä.
Arjessa tämä tarkoittaa esimerkiksi risteystä, jossa on useita yhtä kelvollisia etenemistapoja. Jos järjestelmä katsoo vain auton sijaintia ilman ymmärrystä kaistoista ja määränpäästä, se voi pitää laillista valintaa omituisena. Deep-Flow yhdistää eri aistimukset varhain ja ottaa huomioon ajokaistat sekä todennäköisen tavoitteen. Näin se erottaa aidosti yllättävän liikkeen – kuten kaistaviivan tietoiselta vaikuttavan ylityksen – vaihtoehdosta, joka on harvinainen mutta täysin normaali kyseisessä paikassa.
Menetelmä painottaa opetuksessa erityisen vaativia liikesarjoja, kuten jyrkkiä kaarroksia ja äkillisiä nykäyksiä. Ajatus on yksinkertainen: jos vaikeat kohdat hallitaan paremmin, koko järjestelmä kompuroi harvemmin juuri siellä, missä virheiden hinta on suurin.
Miten hyvin tämä toimii käytännössä? Tekijät arvioivat menetelmää Waymon avoimella liikeaineistolla. Kun vertailukohtana käytettiin heuristisesti koottua ”kultajoukkoa” turvallisuuskriittisiksi luokiteltuja tapahtumia, järjestelmä erotteli poikkeamat kohtalaisella tarkkuudella (AUC-ROC 0,766). Luku ei kerro täydellisyydestä, vaan viittaa siihen, että signaalia on selvästi, mutta ei erehtymättömästi.
Merkittävämpi havainto löytyy kuitenkin pintalukujen takaa. Analyysin mukaan on syytä erottaa kaksi eri asiaa: liikkeen kinematiikkaan liittyvä vaara – epätasainen ohjaus, jyrkkä poukkoilu – ja sääntöjen tai liikennemerkkien rikkominen. Deep-Flow nosti esiin käytöksiä, joita järjestelmä ei ollut nähnyt opetuksessa ja jotka perinteiset suodattimet jättivät väliin: kaistaviivan rikkomisia ja risteysmalleja, jotka eivät olleet sääntökirjan mukaisia. Toisin sanoen se paljasti ”ennustettavuusvajeen”: tavan toimia, joka ei vielä ole varsinaisesti laiton tai törkeä, mutta joka poikkeaa niin paljon totutusta, että koneen on vaikea ennustaa sitä – ja juuri siksi siihen kannattaa suhtautua varauksella.
Jos tällaista pistemittausta voidaan tehdä luotettavasti, seurauksena voisi olla ”tilastollinen turvaportti”: objektiivinen kynnysarvo sille, kuinka paljon poikkeavuutta on liikaa. Tällaiset portit voisivat auttaa päättämään, milloin uusi ohjelmistoversio on valmis laajaan käyttöön ja milloin ei, ilman että koko liikenne toistetaan kalliissa simulaattoreissa.
Rajoituksia on silti runsaasti. Arviointi perustui heuristisesti koottuihin maalitapahtumiin, eivätkä ne välttämättä kata kaikkia olennaisia riskejä – tai ne voivat sisältää tapauksia, jotka ovat epätavallisia mutta harmittomia. Tulostasot ovat lupaavia, eivät ihmeellisiä. Koska opetus on valvomaton, järjestelmä voi liputtaa outona myös sellaista, joka on turvallista mutta tälle alueelle epätyypillistä. Datan varassa oppiminen tekee mallista riippuvaisen paikallisista tavoista: se, mikä on normaalia Arizonassa, ei välttämättä ole sitä Helsingissä. Lisäksi menetelmä ei ennusta onnettomuuksia suoraan, vaan epätodennäköisyyttä – ja nämä eivät aina ole sama asia. Lopuksi: jos robotille opetetaan ”ihmisen normaali”, mitä tapahtuu, kun ihmisen normaali on itsessään keskinkertaista tai joskus huonoa?
Silti suunta on kiinnostava. Kun turvallisuutta ei kuvata enää yksittäisinä sääntöinä vaan jatkuvana asteikkona – tavallisen ajon muotokuvana ja siitä otettuna etäisyytenä – myös keskustelu muuttuu. Pitäisikö itseajavien ajoneuvojen hyväksyntä sitoa siihen, kuinka ennustettavaa niiden ajaminen on ihmisten joukossa? Ja jos vastaus on kyllä, kenen tehtävä on päättää, mikä on ”riittävän normaalia” – insinöörien, viranomaisten vai meidän muiden, joita autojen pitää osata lukea?
Paper: https://arxiv.org/abs/2602.17586v1
Register: https://www.AiFeta.com
itseajavat-autot tekoäly liikenneturvallisuus tutkimus data