Adversarial Exploitation of Policy Imitation

Adversarial Exploitation of Policy Imitation

Can someone copy a black-box robot brain just by watching how it acts? This study says yes.

Researchers Vahid Behzadan and William Hsu show that deep reinforcement learning (DRL) agents—used in games, robotics, and trading—can be cloned via policy imitation. An attacker who can repeatedly query an agent (ask for its action in many situations) can build a new dataset and learn a look‑alike policy. That replica then enables black‑box attacks that push the original agent toward bad decisions, threatening both confidentiality (the policy can be stolen) and integrity (it can be manipulated).

Why it matters: Unlike classic classifier theft, this attack leverages imitation learning—a standard DRL tool—so extraction is practical without access to rewards or model internals.

Mitigations discussed include rate‑limiting and auditing queries, adding randomness or noise to outputs, watermarking behaviors, detecting imitation attempts, and training with adversarial scenarios.

Paper: http://arxiv.org/abs/1906.01121v1

Paper: http://arxiv.org/abs/1906.01121v1

Register: https://www.AiFeta.com

#AI #ReinforcementLearning #Security #AdversarialML #ModelExtraction #ImitationLearning #DRL

Read more

Pieni kielimalli oppi kysymään taulukoilta ihmisen puolesta

Pieni kielimalli oppi kysymään taulukoilta ihmisen puolesta

Moni on tuijottanut Exceliä ja toivonut voivansa vain kysyä: missä kaupunginosissa koti on kävelymatkan päässä terveysasemasta ja ruokakaupasta? Ihmismielelle yksinkertainen pyyntö muuttuu helposti tuntien suodatukseksi ja kaavanviilaukseksi. Tietokone kyllä tietää vastauksen – jos vain osaisimme puhua sen kieltä. Viime vuosina apua on pyydetty juttelevalta tekoälyltä. Se osaa etsiä ja tiivistää tekstejä,

By Kari Jaaskelainen
Tekoäly vastaa fiksummin, kun sille annetaan oikea tieto oikealla tavalla

Tekoäly vastaa fiksummin, kun sille annetaan oikea tieto oikealla tavalla

Katsaus kokoaa, miten kielimalleja voi vahvistaa antamalla niille jäsenneltyä lisätietoa vastaushetkellä – yksinkertaisista vihjeistä aina syy–seurausketjuiksi järjestettyyn taustaan. Kuvittele, että pyydät tekoälyä selittämään, mitä uusi lakimuutos tarkoittaa pienyrittäjälle. Yleismallinen kielimalli osaa puhua aiheesta sujuvasti, mutta jos laki on muuttunut äskettäin, vastauksessa voi olla vanhaa tietoa tai epävarmoja arvailuja. Sama kokemus

By Kari Jaaskelainen
Tekoäly voi olla sekä nopea että säästeliäs – jos se oppii milloin ajatella ääneen

Tekoäly voi olla sekä nopea että säästeliäs – jos se oppii milloin ajatella ääneen

Kuvittele chat-ikkuna, jossa vastaus alkaa rönsyillä: ensin pari perustelua, sitten varmistus, lopulta vielä varmistuksen varmistus. Käyttäjä odottaa, laskutus juoksee. Tekoälymallit hinnoitellaan usein “tokeneina” – sananpaloina – joten jokainen turha kiemura maksaa sekä aikaa että rahaa. Vuosia alalla vallitsi hiljainen oletus: mitä enemmän mallilla on laskentatehoa ja mitä pidemmin se ”miettii”, sitä parempaa

By Kari Jaaskelainen