Meta ha recentemente lanciato Llama 4, la sua ultima serie di modelli di intelligenza artificiale. Questi modelli alimentano il nuovo assistente Meta AI, accessibile via web e integrato in piattaforme di messaggistica come WhatsApp, Messenger e Instagram. Tra le novità, Llama 4 Scout si distingue per la sua compattezza, operando su una singola GPU Nvidia H100, mentre Llama 4 Maverick si pone in una posizione simile a quella di GPT-4o e Gemini 2.0 Flash.
Meta è ancora impegnata nell’addestramento di Llama 4 Behemoth, descritto dal suo CEO – Mark Zuckerberg come il modello di punta, con prestazioni superiori a quelle dei principali concorrenti globali.
Llama 4 Scout si distingue per una finestra di contesto che arriva a 10 milioni di token, equivalente alla memoria operativa di un modello AI completo. Nei benchmark comparativi, il modello supera i concorrenti Google Gemini 3, Gemini 2.0 Flash-Lite e l’open-source Mistral 3.1. Un aspetto interessante di Llama 4 Scout è la sua capacità di funzionare su una singola GPU Nvidia H100, un risultato che ha suscitato notevoli apprezzamenti.
Maverick dunque offre prestazioni comparabili a quelle di GPT-4o di OpenAI e Gemini 2.0 Flash di Google, con performance paragonabili a quelle di DeepSeek-V3 in attività di codifica e ragionamento, grazie a un numero inferiore di parametri attivi.
Llama 4 Behemoth presenta una configurazione imponente con 288 miliardi di parametri attivi e un totale di 2 trilioni di parametri. Pur non essendo ancora stato ufficialmente rilasciato, Meta sostiene che Behemoth supererà modelli concorrenti come GPT-4.5 e Claude Sonnet 3.7 in vari benchmark STEM. A differenza di altri modelli, Llama 4 si basa su un’architettura “mixture of experts” (MoE), un approccio che ottimizza l’utilizzo delle risorse attivando solo i componenti necessari per specifici compiti.
Meta ha intenzione di fornire maggiori dettagli sui suoi piani futuri per i modelli AI durante la conferenza LlamaCon, in programma per il 29 aprile. Come per le versioni precedenti, anche Llama 4 è classificato come “open-source”, ma la licenza di Llama 4 impone restrizioni. In particolare, le grandi aziende con oltre 700 milioni di utenti attivi mensili devono chiedere l’autorizzazione a Meta prima di utilizzare i modelli. Questo vincolo ha suscitato critiche, tanto che l’Open Source Initiative, nel 2023, ha escluso Llama 4 dalla categoria “open source” in senso stretto.

Zuckerberg ha dichiarato che l’obiettivo di Meta è “costruire l’Ai più importante del mondo, renderla open source e universalmente accessibile in modo che tutti nel mondo ne traggano beneficio. E continua “penso che l’IA open source diventerà il modello principale, e con Llama 4, questo sta iniziando a succedere”.