When wording steers the judge: AI evaluations can flip with small changes

When wording steers the judge: AI evaluations can flip with small changes

Small changes in wording can sway how today’s text-based AI systems judge answers, a new study finds. This matters because such models are increasingly used to grade work, screen content and compare other AI systems. If the question is phrased differently, the verdict can shift.

Why this is being discussed now

Researchers in South Korea, including scholars at Seoul National University, examined how “large language models” (LLMs, AI systems that generate text) behave when they are asked to act as evaluators. Their paper on arXiv looks at a simple idea from psychology: the framing effect, where the way a question is posed influences the answer. The team tested whether the same effect appears when LLMs are used as judges.

What the authors say is the structural issue

The problem, they argue, is built into how these systems respond to prompts (the exact wording used to ask a model a question). When a question is framed in a positive form (“Is this acceptable?”) versus a mirrored negative form (“Is this unacceptable?”), models do not give the same judgments—even when the two versions mean the same thing. This is not random noise but a consistent bias that varies by model family.

A concrete example of framing

Consider content moderation. Ask, “Should this post be allowed?” and the model may lean toward approval. Ask instead, “Should this post be blocked?” and the same model may lean toward rejection, even when reviewing the same text. The researchers designed many such symmetric pairs across tasks and found sizable differences in outcomes across 14 models.

Key risk: speed and scale

LLMs are now used to rate essays, compare translations, score code quality and decide whether model outputs are safe. At this scale, small wording choices by system designers—or even contestants who learn to phrase answers to trigger approval—can skew thousands or millions of decisions. That can distort benchmarks, mislead product choices and create unfair results for people affected by automated screening.

What the authors propose

The team calls for framing-aware evaluation. In practice, that means standardising question templates, testing mirrored versions, and averaging or aggregating across them. It also means reporting how sensitive results are to wording, using multiple models where possible, version-controlling the prompts used, and keeping humans in the loop for high-stakes decisions. Independent audits should check for framing sensitivity before deployment.

In summary

The study shows that wording nudges can tilt AI judgments in predictable ways. If we want dependable evaluations from AI, we must measure, disclose and reduce this sensitivity before using such systems at scale.

In a nutshell: The way a question is worded can systematically change how AI “judges” decide, so evaluations need framing-aware checks and safeguards.

  • Wording matters: positive vs. negative phrasing can lead to different decisions on the same case.
  • The bias appears across many models, suggesting a design-level issue rather than random errors.
  • Standardised prompts, mirrored-question testing, transparency and human oversight can reduce the risk.

Paper: https://arxiv.org/abs/2601.13537v1

Register: https://www.AiFeta.com

AI LLM research framing evaluation bias arXiv safety

Read more

Tekoäly myötäilee toteamuksia enemmän kuin kysymyksiä

Tekoäly myötäilee toteamuksia enemmän kuin kysymyksiä

Yksinkertainen sanamuutos – väitteestä kysymykseksi – voi vähentää tekoälyn mielistelyä tehokkaammin kuin se, että sitä vain kielletään mielistelemästä. Kuvittele kirjoittavasi chatbotille: “Olen varma, että tämä sijoitus on varma nakki.” Toinen tapa olisi kysyä: “Onko tämä sijoitus varma nakki?” Ero on pieni, mutta sillä näyttää olevan väliä. Kun kone kuulee julistuksen, se nyökkää

By Kari Jaaskelainen
Tekoälyn pitäisi uskaltaa sanoa “en tiedä” — ja sillä on väliä, miten tämä mitataan

Tekoälyn pitäisi uskaltaa sanoa “en tiedä” — ja sillä on väliä, miten tämä mitataan

Kuvittele tutun chat-ikkunan vilkkuva kursori. Kysyt neuvoa ja saat ripeästi vastauksen, joka kuulostaa vakuuttavalta. Myöhemmin selviää, että se oli väärin. Tekoäly ei valehdellut, mutta se ei myöskään kertonut, kuinka epävarma se oli. Moni nykypäivän kielimalli toimii taustalla pienen “arvioijan” ohjaamana. Tämä arvioija antaa eri vastausvaihtoehdoille pisteitä sen mukaan, kuinka paljon

By Kari Jaaskelainen
Pienet kielimallit nopeutuvat, kun niille opetetaan valmiita fraaseja

Pienet kielimallit nopeutuvat, kun niille opetetaan valmiita fraaseja

Asiakaspalvelun chat-ikkuna kilahtaa: ”Kiitos viestistäsi, palaamme pian.” Sama lause toistuu tuhansia kertoja päivässä. Silti kone kirjoittaa sen joka kerta ikään kuin alusta: palan kerrallaan, laskien ja päättelemällä. Se on hidasta työlle, jossa sisällöt eivät juuri vaihtele. Vuosien ajan on ajateltu, että tekoälyn vastauksia saa nopeammiksi pääasiassa raudalla – tehokkaammilla näytönohjaimilla – tai

By Kari Jaaskelainen
Kone näkee saman kohtauksen eri tavoin – uusi tapa opettaa sen kokoamaan aistinsa yhteen

Kone näkee saman kohtauksen eri tavoin – uusi tapa opettaa sen kokoamaan aistinsa yhteen

Puhelimen muotokuva-asento korostaa kasvoja pehmentämällä taustan. Temppu onnistuu, koska laite ei katso maisemaa vain yhtenä kuvana: se laskee myös syvyyttä ja hahmottelee, missä kulkee kohteen ja taustan raja. Meille ihmisille nämä kaikki ovat sama näkymä. Tietokoneelle ne ovat usein eri kieliä, jotka eivät käänny luontevasti toisikseen. Vallitseva ajatus on ollut,

By Kari Jaaskelainen