Meta a fait un autre pas en avant avec ses plans d'IA, avec le lancement de ses modèles LLAMA 4 AI, qui, dans les tests, se sont avérés offrir de meilleures performances sur pratiquement tous les fronts que ses concurrents.
Eh bien, au moins sur la base des résultats que Meta a choisi de libérer, mais nous y arriverons.
Tout d'abord, Meta a annoncé quatre nouveaux modèles qui incluent une formation systématique beaucoup plus grande et une inférence des paramètres que les modèles LLAMA précédents.

Les quatre (oui, quatre, le dernier, le dernier n'est pas présenté dans cette image) Les nouveaux modèles de lama sont:
- Llama 4 Scout devient immédiatement le petit modèle le plus rapide disponible et a été conçu pour fonctionner sur un seul GPU. Scout comprend 17 milliards de paramètres et 16 experts, ce qui permet au système d'optimiser ses réponses en fonction de la nature de chaque requête.
- Llama 4 Maverick comprend également une ressource de paramètres de 17 milliards, mais incorpore également 128 experts. L'utilisation des «experts» signifie que seul un sous-ensemble des paramètres totaux est activé pour chaque requête, améliorant l'efficacité du modèle en abaissant les coûts de service du modèle et la latence. Cela signifie que les développeurs utilisant ces modèles peuvent obtenir des résultats similaires avec moins de calcul.
- Le géant de Llama 4 comprend plus de 2 billions de paramètres, ce qui en fait le plus grand système actuellement disponible. Cela, au moins en théorie, lui donne beaucoup plus de capacité à pouvoir comprendre et répondre aux questions avec l'apprentissage et l'inférence avancés.
- Le raisonnement de Llama 4 est le modèle final, sur lequel Meta n'a pas encore partagé beaucoup d'informations.
Chacun de ces modèles sert un objectif différent, avec Meta libérant des options variables qui peuvent être exécutées avec des systèmes moins ou plus puissants. Donc, si vous cherchez à construire votre propre système d'IA, vous pouvez utiliser Llama Scout, le plus petit des modèles, qui peut fonctionner sur un seul GPU.
Alors, qu'est-ce que tout cela signifie en termes de laïcs?
Pour clarifier, chacun de ces systèmes est construit sur une gamme de «paramètres» qui ont été établis par l'équipe de développement de Meta pour améliorer le raisonnement systématique. Ces paramètres ne sont pas l'ensemble de données lui-même (qui est le modèle de langue) mais la quantité de contrôles et d'invites intégrés dans le système pour comprendre les données qu'il examine.
Ainsi, un système avec 17 milliards de paramètres aura idéalement un meilleur processus logique que celui avec moins de paramètres, car il pose des questions sur plus d'aspects de chaque requête et répond en fonction de ce contexte.
Par exemple, si vous aviez un modèle de quatre paramètres, il serait essentiellement de demander «qui, quoi, où et quand», chaque paramètre supplémentaire ajoutant de plus en plus de nuances. Google Search, en tant que comparaison, utilise plus de 200 «signaux de classement» pour chaque requête que vous entrez, afin de vous fournir un résultat plus précis.
Vous pouvez donc imaginer comment un processus de paramètres de 17 milliards de 17 milliards de choses le ferait.
Et les paramètres de Llama 4 sont plus du double de la portée des modèles précédents de Meta.
À titre de comparaison:
- Le plus petit modèle Llama 3 de Meta avait 8 milliards de paramètres
- Le modèle mineur de Llama 2 comprenait 7 milliards de paramètres
- Le modèle de lama initial de Meta comprenait également 7 milliards de paramètres
Ainsi, comme vous pouvez le voir, au fil du temps, la construction de Meta dans plus de logique système pour poser plus de questions et creuser plus loin dans le contexte de chaque demande, qui devrait ensuite également fournir des réponses plus pertinentes et précises basées sur ce processus.
Les «experts» de Meta, quant à eux, sont un nouvel élément au sein de Llama 4, et sont des contrôles systématiques qui définissent lesquels de ces paramètres doivent être appliqués, ou non, à chaque requête. Cela réduit le temps de calcul, tout en maintenant la précision, ce qui devrait garantir que les projets externes utilisant les modèles LLAMA de Meta pourront les exécuter sur des systèmes de spécifications inférieurs.
Parce que littéralement, personne n'a la capacité que Meta fait sur ce front.
Meta a actuellement autour 350 000 puces Nvidia H100 alimenter ses projets IAavec davantage en ligne alors qu'il continue d'élargir sa capacité de centre de données, alors qu'il développe également ses propres puces d'IA qui semblent réglées sur cela encore plus.
Openai aurait Environ 200K H100 en opérationtandis que le super centre «Colossus» de Xai fonctionne actuellement sur Chips H100 200K aussi.
Meta est donc probablement en train de se dérouler à la double de ses concurrents, bien que Google et Apple développent également leurs propres approches.
Mais en termes de calcul et de ressources tangibles et disponibles, Meta est assez clairement en tête, avec son dernier modèle de géant pour faire sauter tous les autres projets d'IA hors de l'eau en termes de performances globales.

Vous pouvez voir une comparaison des performances comparatives entre les principaux projets d'IA dans ce graphique, bien que certaines questions aient également été soulevées quant à la précision et à l'applicabilité du processus de test de META, et aux repères contre lesquels il a choisi pour correspondre à ses modèles LLAMA.
Il sortira dans les tests et dans l'expérience utilisateur de toute façon, mais il convient également de noter que tous les résultats produits par Llama 4 n'ont pas été aussi époustouflants que les Meta semblent le suggérer.
Mais dans l'ensemble, il stimule apparemment de meilleurs résultats, sur tous les fronts, tandis que Meta dit également que les modèles d'entrée inférieurs sont moins chers à accéder, et mieux, que la concurrence.
Ce qui est important, car les META ouvrent également tous ces modèles à utiliser dans des projets d'IA externes, ce qui pourrait permettre aux développeurs tiers de construire de nouveaux modèles d'IA dédiés à des fins variables.
Il s'agit d'une mise à niveau importante dans les deux sens, qui devrait mettre Meta en haut du tas pour le développement de l'IA, tout en permettant aux développeurs externes d'utiliser ses modèles LLAMA également pour faire de la méta la base clé de charge pour de nombreux projets d'IA.
Déjà, LinkedIn et Pinterest sont parmi les nombreux systèmes qui incorporent les modèles Llama de Meta, et alors qu'il continue de construire de meilleurs systèmes, il semble que Meta gagne dans la course AI. Parce que tous ces systèmes dépendent de ces modèles, et comme ils le font, cela augmente leur dépendance à l'égard de la méta et de ses mises à jour LLAMA en cours, pour alimenter leur évolution.
Mais encore une fois, il est difficile de simplifier la pertinence de cela, étant donné la nature complexe du développement de l'IA et les processus nécessaires pour l'exécuter.
Pour les utilisateurs réguliers, la partie la plus pertinente de cette mise à jour sera l'amélioration des performances des modèles de chatbot et de génération AI de Meta.
Meta intégrant également ses modèles LLAMA 4 dans son chatbot dans l'application, auxquels vous pouvez accéder via Facebook, WhatsApp, Instagram et Messenger. Le traitement du système mis à jour fera également partie des modèles de ciblage publicitaire de Meta, de ses systèmes de génération d'annonces, de ses modèles algorithmiques, etc.
Fondamentalement, tous les aspects des applications de Meta qui utilisent l'IA deviendront désormais plus intelligents, en utilisant des paramètres plus logiques dans leur évaluation, ce qui devrait entraîner des réponses plus précises, de meilleures générations d'images et une amélioration des performances publicitaires.
Il est difficile de quantifier pleinement ce que cela signifiera au cas par cas, car les résultats individuels peuvent varier, mais je suggère de considérer les options Advantage + AD de Meta pour voir à quel point ses performances sont devenues bonnes.
Meta intégrera ses derniers modèles LLAMA 4 au cours des prochaines semaines, avec plus de mises à niveau à venir dans cette version.