Intelligence Artificielle||2 sources
Perplexity met en open source des modèles d’embedding égaux à Google et Alibaba mais moins gourmands en mémoire
Perplexity publie deux familles de modèles d’embedding open source performants comme ceux de Google et Alibaba, mais optimisés pour une faible consommation mémoire grâce à la quantification et une lecture bidirectionnelle.
Perplexity, moteur de recherche par IA, lance deux nouveaux modèles d’embedding textuels open source qui égalent ou surpassent les offres de Google et Alibaba tout en consommant beaucoup moins de mémoire. Les modèles pplx-embed-v1 et pplx-embed-context-v1, disponibles en versions à 0,6 milliard et 4 milliards de paramètres, transforment requêtes et documents en vecteurs numériques pour mesurer la similarité sémantique. Cette étape de filtrage initial est cruciale avant le classement et la génération de réponses par les modèles de langage. Les modèles d’embedding jouent un rôle clé dans les pipelines de recherche augmentée par récupération (RAG), où ils sélectionnent les documents pertinents parmi des milliards de pages web. Contrairement à la plupart des modèles leaders, qui traitent le texte unidirectionnellement de gauche à droite, ceux de Perplexity adoptent une lecture bidirectionnelle. Cela permet à chaque mot de capter le contexte environnant, améliorant la désambiguïsation des passages complexes, notamment pour pplx-embed-context-v1 qui intègre le contexte documentaire. Sur le benchmark MTEB, référence pour évaluer les embeddings, les modèles obtiennent des scores similaires à Qwen3 d’Alibaba et Gemini de Google, mais la quantification réduit drastiquement les besoins en mémoire. Ainsi, ils stockent beaucoup plus de pages par gigaoctet. Perplexity publie un rapport technique détaillant les résultats d’évaluation. Les quatre variantes sont accessibles sur Hugging Face sous licence MIT et compatibles avec l’API de Perplexity, ainsi que les frameworks Transformers, SentenceTransformers et ONNX. Cette libération démocratise l’accès à des outils performants pour les développeurs d’applications de recherche IA.
2 sources
Article enrichi par l'IA
Cet article a été enrichi avec du contexte additionnel provenant des connaissances de l'IA (historique, comparaisons, données techniques). Les sources éditoriales restent la base factuelle.
Perplexity open-sources embedding models that match Google and Alibaba at a fraction of the memory cost
Source éditoriale·The Decoder·28 févr. 2026
Contexte ajouté : rôle des embeddings dans RAG, explication du benchmark MTEB, avantages de la lecture bidirectionnelle vs unidirectionnelle
Contexte IA