Meta accélère dans l’intelligence artificielle avec le lancement de Llama 4, une nouvelle génération de modèles multimodaux basés sur l’architecture Mixture-of-Experts (MoE). Allant de Scout, léger et performant, à Behemoth, puissant et exigeant, ces modèles visent à répondre à divers besoins professionnels. Meta ambitionne ainsi d’intégrer ses solutions IA tant pour les professionnels que pour le grand public.
Meta semble franchir une nouvelle étape dans la course à l’intelligence artificielle avec le lancement de la quatrième génération de ses modèles Llama. Celle-ci confirme en effet l’engagement de la firme à s’imposer comme étant acteur indispensable dans le domaine de grands modèles de langage. Adoptant une architecture Mixture-of-Experts (MoE), cette gamme de LLM multimodaux semble redoutable de par leur efficacité, que ce soit sur le plan fonctionnel que technique. La série présente une approche modulaire et pratique de l’IA générative. Cela part de Scout, perfectionné pour des contextes longs et des infrastructures moins performantes, à Behemoth, créé pour mesurer avec les leaders du marché. D’autres modèles ont même dévoilés, et de ceux à venir.
Des modèles au service de la performance
Meta présente divers modèles Llama comme : Scout, Maverick et Behemoth. Le modèle Llama 4 Scout se démarque de par sa légèreté, pourtant redoutablement efficace. Activant 17 milliards de paramètres (sur un total de 109B) répartis sur 16 experts, ce modèle se targue de fonctionner sur un seul GPU Nvidia H100. Dépassant des références comme Mistral 3.1 ou Gemma 3, il peut gérer plus de 10 millions de tokens pour différentes tâches complexes comme :
- L’analyse multi-documents ;
- La déduction sur des bases de code volumineuses ;
- La personnalisation avancée basée sur l’activité utilisateur.
Il se pourrait que cela inclue la classification automatique des justifications de frais professionnels, un cas d’usage de plus en plus exigé dans les outils RH et comptables.
Présenté en version preview, Llama 4 Behemoth représente actuellement le modèle le plus puissant de la série actuelle. Comptant 288 milliards de paramètres actifs sur un total de 2000 milliards, il se repose sur 16 experts. Lors du pré-entraînement, il dépasse des modèles comme Claude Sonnet 3.7 ou GPT-4.5 sur des tâches STEM. D’après Meta :
Nous avons atteint 390 TFLOPs/GPU. Le mélange de données global pour l’entraînement comprenait plus de 30 000 milliards de tokens, soit plus du double du mélange de pré-entraînement de Llama 3, et comprenait divers ensembles de données textuelles, graphiques et vidéo.
Activant lui aussi 17 milliards de paramètres, le modèle Llama 4 Maverick a la possibilité de le faire sur un total impressionnant de 400B. Avec des performances incroyables sur la génération de code et le raisonnement, il rivalise avec Gemini 2.0 Flash, DeepSeek V3 et GPT-4o. Sur LMArena, la version chat expérimental de Maverick atteint un score ELO de 1417, assez de Gemini 2.5 Pro (1439).
Vers des usages sur matériel grand public ?
Des membres de la communauté tech comme Alex Cheema (EXO Labs), mettent en évidence que Llama 4 pourrait être exploité sur des machines plus accessibles.
Avec l’architecture MoE, certains experts sont sollicités pour la génération de texte. Même si la mémoire rapide reste essentielle, cette situation permet de réduire les besoins en puissance brute. Pour l’exécution de certains modèles comme Scout, Maverick (sauf Behemoth étant encore exigeant), des alternatives économiques aux GPU Nvidia peuvent être engendrées.
Même si les retours initiaux semblent globalement positifs, les performances observées n’ont pas encore atteint leur plein potentiel d’après les premiers testeurs. La firme avait déjà prévu ces écarts, mais a décidé de publier ces modèles rapidement, restant fidèle à sa volonté d’ « aller vite ». De même, elle a annoncé que d’autres versions de Llama 4 sont en préparation, y compris Llama 4 Reasoning.
Avec plus d’un milliard de téléchargements de la série Llama, l’entreprise multinationale tente d’intégrer ses modèles de langage dans ses produits, dont Meta AI. De plus, elle souhaite renforcer sa présence dans le secteur de l’IA destinée aux professionnels et au grand public.
Le développement de Llama 4 pourrait occasionner certains frais professionnels, notamment liés à la formation des équipes ou à l’ajustement des systèmes existants. Toutefois, le potentiel de ROI devrait compenser les dépenses initiales. Il reste donc essentiel d’évaluer précisément les coûts et les bénéfices attendus afin de définir une stratégie en matière de technologies.
Cet article vous a-t-il été utile ?
Note moyenne 0 / 5. Votants: 0