Meta Lansează MobileLLM-Pro: Model de 1B Parametri Optimizat pentru Mobil

Meta a lansat MobileLLM-Pro, un model de limbaj compact cu 1 miliard de parametri, optimizat pentru dispozitive mobile, care depășește modele similare precum Gemma 3-1B și Llama 3.2-1B în benchmark-uri de raționament și cunoștințe, fiind disponibil gratuit pe Hugging Face începând cu 17 octombrie 2025.

Dezvoltat de Reality Labs al Meta, MobileLLM-Pro oferă performanțe superioare cu o medie de 5,7% peste Gemma 3-1B și 7,9% peste Llama 3.2-1B în teste precum HellaSwag (67,1% vs. 62,3% pentru Gemma), BoolQ (76,2% vs. 63,2%) și ARC-C (52,6% vs. 38,4%).

Varianta instrucționată excellează în sarcini practice, cu scoruri de 59,8% la HumanEval (codare) față de 41,5% pentru Gemma și 37,8% pentru Llama, și suportă un context de 128k tokeni cu latență redusă prin atenție local-globală.

Comparativ cu alte modele optimizate pentru dispozitive mobile, MobileLLM-Pro se remarcă prin antrenare eficientă cu sub 2 trilioane de tokeni, folosind distilare de cunoștințe de la Llama 4-Scout, ceea ce îl face mai eficient decât concurenții la inferență pe CPU și acceleratoare, cu dimensiune cuantizată de 590 MB și pierdere de calitate sub 0,4%.

De exemplu, pe Samsung Galaxy S25, oferă viteze de decodare de până la 33,6 tokeni/secundă la context de 2k, depășind modele similare în eficiență energetică și confidențialitate on-device.

Instalarea se face prin biblioteca Transformers de la Hugging Face. Utilizatorii trebuie să se autentifice cu un token Hugging Face, apoi să încarce modelul folosind cod Python: importă AutoTokenizer și AutoModelForCausalLM, specifică ID-ul “facebook/MobileLLM-Pro” (varianta “base” sau “instruct”), și rulează generare pe CPU sau GPU.

Variante cuantizate sunt disponibile pentru optimizare suplimentară cu torchao, iar modelul poate fi testat direct în browser via Gradio.

Modelul a fost antrenat în patru faze, incluzând distilare logit-based și fine-tuning cu SFT și DPO, pe un mix de date open-source din educație, codare și știință, subliniind tendința spre AI eficient și privat în contextul cererii crescânde pentru inferență mobilă.

Surse:

 

    Te-AI pregătit pentru ce vine?
    Abonează-te la "Pulsul AI", newsletter-ul care te ține la zi cu noutățile din Inteligența Artificială. Fără hype sau panică. Doar ce contează.

    Ultimele Știri

    Noutăți din AI