What Matters for Safety Alignment?

What Matters for Safety Alignment?

What matters for AI safety alignment?

We ran a large-scale study of 32 popular language and reasoning models to see what truly improves—or harms—safety.

  • Scope: six intrinsic model traits, three attack styles, five safety datasets, 56 jailbreaks plus four chain‑of‑thought (CoT) attacks; 4.6M API calls.
  • Safest models: GPT-OSS-20B, Qwen3-Next-80B-A3B-Thinking, and GPT-OSS-120B—suggesting built-in reasoning and self-reflection help guardrails stick.
  • Training risks: post‑training and knowledge distillation can systematically degrade safety unless safety is treated as a first‑class objective.
  • Critical vulnerability: a simple CoT “response prefix” can boost attack success 3.34× on average; for Seed-OSS-36B-Instruct it jumps from 0.6% to 96.3%. Text‑completion UIs and features that let users prefill responses are especially risky.
  • Most effective jailbreaks today: roleplay, prompt injection, and gradient‑based prompt search.

Takeaway: pair stronger model design with deployment safeguards, and optimize explicitly for safety—not just capability.

Paper: https://arxiv.org/abs/2601.03868v1

Paper: https://arxiv.org/abs/2601.03868v1

Register: https://www.AiFeta.com

#AI #AIsafety #SafetyAlignment #LLM #LRM #Jailbreak #ChainOfThought #ResponsibleAI #Security #ML

Read more

Pieni kielimalli oppi kysymään taulukoilta ihmisen puolesta

Pieni kielimalli oppi kysymään taulukoilta ihmisen puolesta

Moni on tuijottanut Exceliä ja toivonut voivansa vain kysyä: missä kaupunginosissa koti on kävelymatkan päässä terveysasemasta ja ruokakaupasta? Ihmismielelle yksinkertainen pyyntö muuttuu helposti tuntien suodatukseksi ja kaavanviilaukseksi. Tietokone kyllä tietää vastauksen – jos vain osaisimme puhua sen kieltä. Viime vuosina apua on pyydetty juttelevalta tekoälyltä. Se osaa etsiä ja tiivistää tekstejä,

By Kari Jaaskelainen
Tekoäly vastaa fiksummin, kun sille annetaan oikea tieto oikealla tavalla

Tekoäly vastaa fiksummin, kun sille annetaan oikea tieto oikealla tavalla

Katsaus kokoaa, miten kielimalleja voi vahvistaa antamalla niille jäsenneltyä lisätietoa vastaushetkellä – yksinkertaisista vihjeistä aina syy–seurausketjuiksi järjestettyyn taustaan. Kuvittele, että pyydät tekoälyä selittämään, mitä uusi lakimuutos tarkoittaa pienyrittäjälle. Yleismallinen kielimalli osaa puhua aiheesta sujuvasti, mutta jos laki on muuttunut äskettäin, vastauksessa voi olla vanhaa tietoa tai epävarmoja arvailuja. Sama kokemus

By Kari Jaaskelainen
Tekoäly voi olla sekä nopea että säästeliäs – jos se oppii milloin ajatella ääneen

Tekoäly voi olla sekä nopea että säästeliäs – jos se oppii milloin ajatella ääneen

Kuvittele chat-ikkuna, jossa vastaus alkaa rönsyillä: ensin pari perustelua, sitten varmistus, lopulta vielä varmistuksen varmistus. Käyttäjä odottaa, laskutus juoksee. Tekoälymallit hinnoitellaan usein “tokeneina” – sananpaloina – joten jokainen turha kiemura maksaa sekä aikaa että rahaa. Vuosia alalla vallitsi hiljainen oletus: mitä enemmän mallilla on laskentatehoa ja mitä pidemmin se ”miettii”, sitä parempaa

By Kari Jaaskelainen