When Bias Pretends to Be Truth: How Spurious Correlations Undermine Hallucination Detection in LLMs

When Bias Pretends to Be Truth: How Spurious Correlations Undermine Hallucination Detection in LLMs

Why do AI models sometimes sound sure while being wrong? This study spotlights a subtle culprit: spurious correlations—strong but misleading patterns in training data (like linking certain surnames to a nationality).

  • These shortcuts make LLMs produce confident, wrong answers.
  • Making models bigger doesn’t fix it.
  • Popular detectors—confidence filters and inner-state probes—miss these cases.
  • Even refusal/guardrail fine-tuning doesn’t fully remove them.
Confidence is not correctness—it’s often just the strength of a learned pattern.

Why detectors fail: when models internalize biased patterns, high confidence reflects the pattern’s statistical weight, not the truth of the output. So confidence-based screening and probing can be systematically misled.

What’s needed: methods that actively break or test these shortcuts—think counterfactual checks, causal interventions, grounding against verified sources, and training that penalizes reliance on spurious signals.

Paper by Shaowen Wang, Yiqi Dong, Ruinian Chang, Tansheng Zhu, Yuebo Sun, Kaifeng Lyu, Jian Li. Read more: http://arxiv.org/abs/2511.07318v1

Paper: http://arxiv.org/abs/2511.07318v1

Register: https://www.AiFeta.com

AI LLM Hallucinations Bias NLP MLSafety ResponsibleAI Research

Read more

Se, mitä pidämme kuvissa samanlaisena, riippuu sanoista

Se, mitä pidämme kuvissa samanlaisena, riippuu sanoista

Olet etsimässä uutta takkia verkosta. Kirjoitat hakukenttään “villakangastakki”. Ensimmäiset osumat ovat järkeviä, mutta sinä mietit: haluaisin nimenomaan tummanharmaan, polvipituisen ja arkikäyttöön sopivan. Yhtäkkiä “samanlainen takki” tarkoittaakin eri asiaa kuin hetkeä aiemmin. Silti useimmat kuvahaun ja verkkokaupan järjestelmät vertaavat kuvia toisiinsa yhden ja saman, kiveen hakatun mittarin mukaan. Perinteinen oletus on

By Kari Jaaskelainen
Näkymätön lisäys kuvaan voi kantaa pitkän viestin – ja säilyä tavallisen muokkauksen läpi

Näkymätön lisäys kuvaan voi kantaa pitkän viestin – ja säilyä tavallisen muokkauksen läpi

Kun tekoälyn tekemät kuvat yleistyvät, pelkkä arvaus alkuperästä ei riitä. Tuoreet kokeet osoittavat, että yksinkertainen, huomaamaton vesileima voi kertoa sekä onko kuva koneella tehty että kuka sen teki. Sosiaalisen median virrassa kuva näyttää aina kuvalta: naurava hääseurue, tulviva katu, presidentti kättelemässä. Silti yhä useammin kysymys kuuluu, mistä kuva on peräisin

By Kari Jaaskelainen
Tietokone, joka kuuntelee sanat, äänen ja ilmeet, voi kertoa myös miksi se epäilee masennusta

Tietokone, joka kuuntelee sanat, äänen ja ilmeet, voi kertoa myös miksi se epäilee masennusta

Moni tunnistaa tilanteen terveyskeskuksessa tai videopuhelussa: kysymykseen ”mitä kuuluu?” on helpompi vastata ”ihan ok” kuin kertoa oikeasti, miltä tuntuu. Häpeä, kiire ja se, että oireet ovat lopulta vain omia kokemuksia, vaikeuttavat masennuksen huomaamista – sekä potilaalta että ammattilaiselta. Yleinen ajatus on ollut, että jos tekoäly oppisi poimimaan masennuksen merkkejä puheesta, tekstistä

By Kari Jaaskelainen
Keinoälystä on tulossa matemaatikon apuri, joka etsii poikkeukset ja ehdottaa polkuja

Keinoälystä on tulossa matemaatikon apuri, joka etsii poikkeukset ja ehdottaa polkuja

Koneet voivat oppia löytämään piilokuvioita, vinkata todistusten välivaiheita ja jopa keksiä yksittäisiä tapauksia, jotka kumoavat rohkeita väitteitä – ja se voi muuttaa tapaa, jolla uutta matematiikkaa syntyy. Arjessa riittää usein, että jokin toimii melkein aina. Matematiikassa yksi poikkeus riittää kaatamaan koko säännön. Jos väität, että jokaisessa bussissa on aina vapaa paikka,

By Kari Jaaskelainen