All‑AMD AI Training Goes Big: ZAYA1 and MoE at Scale

All‑AMD AI Training Goes Big: ZAYA1 and MoE at Scale

All‑AMD AI training, proven at scale

Researchers ran the first large-scale mixture‑of‑experts (MoE) pretraining entirely on AMD hardware—MI300X GPUs connected via Pollara—and distilled practical playbooks for both systems and model design.

  • Systems: Full-cluster networking benchmarks for all-reduce, reduce-scatter, all-gather, and broadcast across message sizes and GPU counts; MI300X kernel sizing and memory-bandwidth insights; a production-ready training stack with fault tolerance and checkpoint reshaping.
  • Modeling: MI300X‑aware sizing rules for attention and MLP blocks, plus MoE width choices that balance training throughput with inference latency.
  • Results: Introduces ZAYA1 (760M active, 8.3B total parameters, MoE). At this scale it matches Qwen3‑4B and Gemma3‑12B, and outperforms Llama‑3‑8B and OLMoE on reasoning, math, and coding benchmarks.

Takeaway: AMD’s compute, network, and software stack are mature and optimized enough for competitive large‑scale pretraining—expanding hardware choice for frontier AI.

Paper: https://arxiv.org/abs/2511.17127v1

Paper: https://arxiv.org/abs/2511.17127v1

Register: https://www.AiFeta.com

#AI #AMD #MI300X #Pollara #MoE #LLM #FoundationModels #HPC #Networking #Research

Read more

Pieni kielimalli oppi kysymään taulukoilta ihmisen puolesta

Pieni kielimalli oppi kysymään taulukoilta ihmisen puolesta

Moni on tuijottanut Exceliä ja toivonut voivansa vain kysyä: missä kaupunginosissa koti on kävelymatkan päässä terveysasemasta ja ruokakaupasta? Ihmismielelle yksinkertainen pyyntö muuttuu helposti tuntien suodatukseksi ja kaavanviilaukseksi. Tietokone kyllä tietää vastauksen – jos vain osaisimme puhua sen kieltä. Viime vuosina apua on pyydetty juttelevalta tekoälyltä. Se osaa etsiä ja tiivistää tekstejä,

By Kari Jaaskelainen
Tekoäly vastaa fiksummin, kun sille annetaan oikea tieto oikealla tavalla

Tekoäly vastaa fiksummin, kun sille annetaan oikea tieto oikealla tavalla

Katsaus kokoaa, miten kielimalleja voi vahvistaa antamalla niille jäsenneltyä lisätietoa vastaushetkellä – yksinkertaisista vihjeistä aina syy–seurausketjuiksi järjestettyyn taustaan. Kuvittele, että pyydät tekoälyä selittämään, mitä uusi lakimuutos tarkoittaa pienyrittäjälle. Yleismallinen kielimalli osaa puhua aiheesta sujuvasti, mutta jos laki on muuttunut äskettäin, vastauksessa voi olla vanhaa tietoa tai epävarmoja arvailuja. Sama kokemus

By Kari Jaaskelainen
Tekoäly voi olla sekä nopea että säästeliäs – jos se oppii milloin ajatella ääneen

Tekoäly voi olla sekä nopea että säästeliäs – jos se oppii milloin ajatella ääneen

Kuvittele chat-ikkuna, jossa vastaus alkaa rönsyillä: ensin pari perustelua, sitten varmistus, lopulta vielä varmistuksen varmistus. Käyttäjä odottaa, laskutus juoksee. Tekoälymallit hinnoitellaan usein “tokeneina” – sananpaloina – joten jokainen turha kiemura maksaa sekä aikaa että rahaa. Vuosia alalla vallitsi hiljainen oletus: mitä enemmän mallilla on laskentatehoa ja mitä pidemmin se ”miettii”, sitä parempaa

By Kari Jaaskelainen