Meta ha annunciato la nuova famiglia di modelli Llama 4, inaugurando una nuova fase per l’intelligenza artificiale pensata per essere nativamente multimodale. Disponibili da subito su llama.com e Hugging Face, i modelli Llama 4 Scout e Llama 4 Maverick sono pensati per offrire performance all’avanguardia in termini di comprensione di testo, immagini e codice mantenendo al contempo degli alti livelli di efficienza e scalabilità.
I nuovi modelli della famiglia Llama
Llama 4 Scout è un modello di Meta da 17 miliardi di parametri attivi progettato per girare su una singola GPU NVIDIA H100. Supporta una finestra di contesto da ben 10 milioni di token, ideale per task come la creazione di riassunti di documenti molto lunghi e l’analisi di grandi codebase. È il migliore della sua categoria in attività di grounding visivo e di visual question answering.
Llama 4 Maverick, con 400 miliardi di parametri totali, è il nuovo riferimento nel panorama dei modelli multimodali. Supera GPT-4o e Gemini 2.0 su benchmark di ragionamento e programmazione pur avendo la metà dei parametri attivi. Il modello si distingue per il rapporto qualità/prezzo e una pipeline avanzata di addestramento che include il reinforcement learning online continuo e ottimizzazioni per la risoluzione dei task più complessi.
Un “modello insegnante” per gli LLM di Meta
Entrambi i modelli di Meta sono stati pre-addestrati su oltre 30 trilioni di token multimodali in oltre 200 lingue. Un ruolo chiave lo ha avuto Llama 4 Behemoth, il “modello insegnante” con 288 miliardi di parametri attivi e quasi 2 trilioni totali, non ancora disponibile pubblicamente ma già in grado di superare GPT-4.5 e Claude 3.7 sui benchmark STEM.
Infine, il gruppo capitanato da Mark Zuckerberg ha rafforzato le misure di sicurezza del progetto introducendo strumenti come Llama Guard e Prompt Guard per vigilare su input e output veicolati dal siatemi. Questo oltre a un meccanismo di red-teaming automatizzato (GOAT) per identificare eventuali vulnerabilità in modo più sistematico.