Fuldt udgivet Gemma 3n bringer multimodal on-device AI med billede, lyd, video og tekst.
Tilgængelig i to effekttilgange: E2B (5B parametre, 2B accelerator-footprint) og E4B (8B parametre, 4B accelerator-footprint) takket være Per Layer Embeddings (PLE).
MatFormer-arkitektur (Matryoshka Transformer) understøtter indlejrede submodeller og Mix-n-Match til brugerdefinerede modelstørrelser.
Per Layer Embeddings flytter embeddings til CPU, så kun kernetransformer-vægte kræver begrænset acceleratorhukommelse.
KV Cache Sharing fordobler hastigheden på præfill-fasen, hvilket forbedrer streaming- og lange-input-ydeevne.
Integreret Universal Speech Model-baseret audio-encoder muliggør on-device tale-til-tekst og taleoversættelse med høj nøjagtighed.
MobileNet-V5-300M vision-encoder leverer realtidsanalyse (60 fps), 13× hurtigere end tidligere, 46 % færre parametre og 4× mindre hukommelsesfodaftryk.
E4B-varianten opnår LMArena-score over 1300 som første model under 10 mia. parametre.
Stærkt udviklerøkosystem med support fra Hugging Face, llama.cpp, Google AI Edge, Ollama m.fl., og Impact Challenge med $150.000 præmier.
Get notified when new stories are published for "🇩🇰 Hacker News Dansk"