Meta livre ses premiers modèles IA internes, cap sur Avocado et Mango
À Davos, le directeur technique de Meta, Andrew Bosworth, a confirmé la livraison interne des premiers modèles issus du nouveau laboratoire d’IA créé l’an dernier. Il parle de « très bonnes performances » pour des systèmes développés en moins de six mois, sans préciser les références exactes mises à disposition des équipes.
Un premier lot de modèles, mystère sur Avocado et Mango
Des indices laissent penser que Meta avance en parallèle sur un modèle texte baptisé « Avocado », envisagé pour un lancement ce trimestre, et sur « Mango » orienté image et vidéo. Bosworth n’a toutefois pas confirmé si ces noms de code correspondent aux modèles livrés, et rappelle que le travail de mise au point post-entraînement reste conséquent avant un déploiement interne élargi puis grand public.
Ce jalon intervient après une réorganisation de la direction de l’IA par Mark Zuckerberg et une campagne de recrutements très agressive. Meta cherche à combler l’écart avec des concurrents qui ont pris l’ascendant, alors que Llama 4 a récemment été critiqué pour des performances en retrait.
Capex IA et promesse de retour dès 2025
Bosworth indique que les investissements lourds engagés depuis 2025 dans l’IA commencent à produire des résultats visibles en interne. Il insiste néanmoins sur la phase critique d’optimisation, indispensable pour obtenir un comportement stable, une latence maîtrisée et des coûts d’inférence compatibles avec des usages à grande échelle sur les plateformes Meta.
Si l’entreprise confirme rapidement un modèle texte crédible et une brique vision/vidéo concurrentielle, l’intégration dans la messagerie, les Reels et la publicité pourrait rééquilibrer le rapport de force avec Google et d’autres acteurs déjà en production sur ces segments. L’enjeu sera autant technique que capitalistique, entre disponibilité GPU et coûts d’exploitation, dans un contexte de volumes utilisateurs sans équivalent.
Source : ITHome
