Beyond URLs: Metadata That Makes LLMs Train Faster

Beyond URLs: Metadata That Makes LLMs Train Faster

Smarter LLMs, Faster—thanks to metadata

What if training a large language model didn't just rely on text, but on the context around it? This study shows that adding fine-grained metadata—not just URLs—can meaningfully speed up pretraining and improve quality.

  • Beyond URLs: detailed quality signals (e.g., source reliability or cleanliness) work best—especially when prepended to the text.
  • New trick: append metadata and have the model predict it as an auxiliary task; this boosts efficiency too.
  • No labels? Use learnable meta-tokens trained with masked loss to induce quality-aware structure and recover part of the speedup.

Why it matters: richer, well-placed metadata helps models learn what to trust and what to focus on—cutting compute while maintaining or improving capability.

Takeaway: prefer finer-granularity metadata and thoughtful placement (prepend or append+predict). Probing confirms these signals shape the model’s internal representations.

Paper: https://arxiv.org/abs/2511.21613v1

Paper: https://arxiv.org/abs/2511.21613v1

Register: https://www.AiFeta.com

#AI #LLM #MachineLearning #NLP #DataQuality #Pretraining #Efficiency #DeepLearning

Read more

Pieni kielimalli oppi kysymään taulukoilta ihmisen puolesta

Pieni kielimalli oppi kysymään taulukoilta ihmisen puolesta

Moni on tuijottanut Exceliä ja toivonut voivansa vain kysyä: missä kaupunginosissa koti on kävelymatkan päässä terveysasemasta ja ruokakaupasta? Ihmismielelle yksinkertainen pyyntö muuttuu helposti tuntien suodatukseksi ja kaavanviilaukseksi. Tietokone kyllä tietää vastauksen – jos vain osaisimme puhua sen kieltä. Viime vuosina apua on pyydetty juttelevalta tekoälyltä. Se osaa etsiä ja tiivistää tekstejä,

By Kari Jaaskelainen
Tekoäly vastaa fiksummin, kun sille annetaan oikea tieto oikealla tavalla

Tekoäly vastaa fiksummin, kun sille annetaan oikea tieto oikealla tavalla

Katsaus kokoaa, miten kielimalleja voi vahvistaa antamalla niille jäsenneltyä lisätietoa vastaushetkellä – yksinkertaisista vihjeistä aina syy–seurausketjuiksi järjestettyyn taustaan. Kuvittele, että pyydät tekoälyä selittämään, mitä uusi lakimuutos tarkoittaa pienyrittäjälle. Yleismallinen kielimalli osaa puhua aiheesta sujuvasti, mutta jos laki on muuttunut äskettäin, vastauksessa voi olla vanhaa tietoa tai epävarmoja arvailuja. Sama kokemus

By Kari Jaaskelainen
Tekoäly voi olla sekä nopea että säästeliäs – jos se oppii milloin ajatella ääneen

Tekoäly voi olla sekä nopea että säästeliäs – jos se oppii milloin ajatella ääneen

Kuvittele chat-ikkuna, jossa vastaus alkaa rönsyillä: ensin pari perustelua, sitten varmistus, lopulta vielä varmistuksen varmistus. Käyttäjä odottaa, laskutus juoksee. Tekoälymallit hinnoitellaan usein “tokeneina” – sananpaloina – joten jokainen turha kiemura maksaa sekä aikaa että rahaa. Vuosia alalla vallitsi hiljainen oletus: mitä enemmän mallilla on laskentatehoa ja mitä pidemmin se ”miettii”, sitä parempaa

By Kari Jaaskelainen