Liquid AI a annoncé aujourd'hui le lancement de ses modèles de base Liquid Foundation Models (LFM2) de nouvelle génération, qui établissent de nouveaux records en matière de vitesse, d'efficacité énergétique et de qualité dans la catégorie des modèles de pointe. Cette version s'appuie sur l'approche de Liquid AI en matière de conception de modèles, fondée sur les principes fondamentaux. Contrairement aux modèles traditionnels basés sur des transformateurs, LFM2 est composé d'opérateurs structurés et adaptatifs qui permettent un apprentissage plus efficace, une inférence plus rapide et une meilleure généralisation, en particulier dans des contextes longs ou avec des ressources limitées.
Liquid AI a mis en open source son LFM2, présentant ainsi au monde entier cette architecture novatrice en toute transparence. Les poids du LFM2 peuvent désormais être téléchargés sur Hugging Face et sont également disponibles sur le Liquid Playground à des fins d'essai. Liquid AI a également annoncé que les modèles seront intégrés à sa plateforme Edge AI et à une application grand public native iOS pour être testés dans les prochains jours.
« Chez Liquid, nous construisons les meilleurs modèles de base de leur catégorie en tenant compte de la qualité, de la latence et de l'efficacité de la mémoire », a indiqué Ramin Hasani, cofondateur et président-directeur général de Liquid AI. « La série de modèles LFM2 est conçue, développée et optimisée pour un déploiement sur n'importe quel processeur, libérant ainsi véritablement les applications de l'IA générative et agentique à la périphérie. LFM2 est le premier d'une série de modèles puissants que nous commercialiserons dans les mois à venir. »
La sortie de LFM2 marque une étape importante dans la compétition mondiale en matière d'IA. C'est la première fois qu'une société américaine démontre publiquement des gains évidents en termes d'efficacité et de qualité par rapport aux principaux modèles de langage open source chinois, notamment ceux développés par Alibaba et ByteDance.
Lors d'évaluations comparatives, les modèles LFM2 surpassent leurs concurrents de pointe en termes de vitesse, de latence et de respect des instructions. Points forts :
- LFM2 affiche un débit 200 % supérieur et une latence inférieure à celles de Qwen3, Gemma 3n Matformer et de tous les autres modèles autorégressifs basés ou non sur des transformateurs disponibles à ce jour sur CPU.
- Non seulement ce modèle est le plus rapide, mais il affiche également des performances nettement supérieures à celles des modèles de chaque catégorie de taille en matière de suivi des instructions et d'appel de fonctions (les principales caractéristiques des LLM dans la création d'agents IA fiables). LFM2 est donc le modèle idéal pour les cas d'utilisation locale et en périphérie.
- Les LFM construits sur la base de cette nouvelle architecture et de la nouvelle infrastructure de formation affichent une amélioration de 300 % de l'efficacité de la formation par rapport aux versions précédentes des LFM, ce qui en fait le moyen le plus rentable de construire des systèmes d'IA polyvalents et performants.
Le transfert de grands modèles génératifs depuis des clouds distants vers des LLM légers et intégrés aux appareils permet d'atteindre une latence de l'ordre de la milliseconde, une résilience hors ligne et une confidentialité des données souveraine. Ces capacités sont essentielles pour les téléphones, les ordinateurs portables, les voitures, les robots, les appareils portables, les satellites et autres terminaux qui doivent raisonner en temps réel. En regroupant des secteurs verticaux à forte croissance tels que la pile IA en périphérie dans l'électronique grand public, la robotique, les appareils intelligents, la finance, le commerce électronique et l'éducation, sans compter les allocations pour la défense, l'espace et la cybersécurité, le marché total accessible pour les modèles de base compacts et privés devrait atteindre 1 000 milliards de dollars d'ici 2035.
Liquid AI travaille avec un grand nombre de sociétés du classement Fortune 500 dans ces secteurs. Elle propose des modèles de base multimodaux ultra-efficaces avec une pile de déploiement sécurisée de niveau entreprise qui transforme chaque appareil en un appareil IA, localement. Cela donne à Liquid AI l'opportunité d'obtenir une part de marché considérable à mesure que les entreprises passent des LLM cloud à une intelligence sur site, rapide, privée et rentable.
À propos de Liquid AI :
Liquid AI est à la pointe de l'innovation en matière d'intelligence artificielle et développe des modèles de base qui établissent de nouvelles normes en matière de performances et d'efficacité. Avec pour mission de créer des systèmes d'IA efficaces et polyvalents à toutes les échelles, Liquid AI continue de repousser les limites de l'intelligence qui peut être intégrée dans les téléphones, les ordinateurs portables, les voitures, les satellites et d'autres appareils. Pour en savoir plus, rendez-vous sur www.liquid.ai.
Le texte du communiqué issu d’une traduction ne doit d’aucune manière être considéré comme officiel. La seule version du communiqué qui fasse foi est celle du communiqué dans sa langue d’origine. La traduction devra toujours être confrontée au texte source, qui fera jurisprudence.
Consultez la version source sur businesswire.com : https://www.businesswire.com/news/home/20250710905339/fr/
© Business Wire, Inc.
Avertissement :
Ce communiqué de presse n’est pas un document produit par l’AFP. L’AFP décline toute responsabilité quant à son contenu. Pour toute question le concernant, veuillez contacter les personnes/entités indiquées dans le corps du communiqué de presse.