Comment Améliorer les Résultats de Recherche avec des Stratégies Avancées
Ces stratégies complètent la recherche vectorielle de base. Utilisez-les après avoir confirmé que le modèle d'embedding convient à la tâche et que la configuration HNSW est correcte. Si la recherche exacte retourne de mauvais résultats, vérifiez d'abord la sélection du modèle d'embedding (retriever). Si l'utilisateur souhaite utiliser un modèle d'embedding plus faible parce qu'il est petit, rapide et bon marché, utilisez le reranking ou la relevance feedback pour améliorer la qualité de la recherche.
Correspondances de Mots-clés Manquantes ou Besoin de Combiner Plusieurs Signaux de Recherche
Utilisez quand : la recherche vectorielle pure manque des correspondances de mots-clés/termes de domaine, ou le cas d'usage bénéficie de la combinaison de recherches sur plusieurs représentations (y compris les langues et modalités) du même élément.
Voir comment utiliser la hybrid search
Bons Documents Trouvés Mais Pas dans les Résultats Supérieurs
Utilisez quand : bon rappel mais mauvaise précision (bons documents dans le top-100, pas le top-10).
- Voir comment utiliser Multistage queries, par exemple avec des rerankers late interaction via Multivectors.
- Rerankers cross-encoder via FastEmbed Rerankers
Bons Documents Non Trouvés Mais Ils Sont Là
Utilisez quand : la récupération de base est en place mais le retriever manque des éléments pertinents que vous savez exister dans le dataset. Fonctionne sur toute donnée intégrable (texte, images, etc.).
Relevance Feedback (RF) Query utilise les scores d'un modèle de feedback sur les résultats récupérés pour diriger le retriever à travers l'espace vectoriel complet lors des itérations suivantes, comme un reranking de toute la collection via le retriever. Complémentaire au reranking : un reranker voit un sous-ensemble limité, RF exploite les signaux de feedback à l'échelle de la collection. Même 3–5 scores de feedback suffisent. Peut exécuter plusieurs itérations.
Un modèle de feedback est n'importe quoi produisant un score de pertinence par document : un bi-encoder, cross-encoder, modèle late-interaction, LLM-as-judge. Les scores de pertinence flous fonctionnent, pas seulement binaires (bon/mauvais, pertinent/non pertinent), du fait que le feedback est exprimé comme un score de pertinence gradué (plus haut = plus pertinent).
Ignorez quand : si le retriever a déjà un bon rappel, ou si le retriever et le modèle de feedback s'accordent fortement sur la pertinence.
- RF Query est actuellement basée sur une formule naïve à 3 paramètres sans défauts universels, elle doit donc être ajustée par dataset, retriever et modèle de feedback
- Utilisez qdrant-relevance-feedback pour ajuster les paramètres, évaluer l'impact avec Evaluator et vérifier l'accord retriever-feedback. Voir le README pour les instructions de configuration. Aucun GPU n'est nécessaire, et le framework fournit également des options de retriever et modèle de feedback prédéfinis.
- Vérifiez la configuration de l'API Relevance Feedback Query
- Utilisez ceci comme un exemple de récupération de texte end-to-end avec ajustement de paramètres et évaluations pour comprendre comment utiliser l'API et exécuter le framework
qdrant-relevance-feedback: RF tutorial
Résultats Trop Similaires
Utilisez quand : les résultats supérieurs sont redondants, quasi-identiques, ou manquent de diversité. Courant dans les domaines de contenu dense (articles académiques, catalogues de produits).
- Utilisez MMR (v1.15+) comme paramètre de requête avec
diversitypour équilibrer pertinence et diversité MMR - Commencez avec
diversity=0.5, réduisez pour plus de précision, augmentez pour plus d'exploration - MMR est plus lent que la recherche standard. Utilisez-le seulement quand la redondance est un problème réel.
Voulez-vous Améliorer les Résultats de Recherche en Fonction d'Exemples (Positifs et Négatifs)
Utilisez quand : vous pouvez fournir des points d'exemple positifs et négatifs pour diriger la recherche plus près des positifs et plus loin des négatifs.
- API de Recommandation : exemples positifs/négatifs pour recommander les vecteurs appropriés Recommendation API
- Stratégie meilleur score : meilleure pour les exemples divers, supporte négatif uniquement Best score
- Discovery API : paires de contexte (positif/négatif) pour contraindre les régions de recherche sans cible de requête Discovery
Avoir une Logique Métier Derrière la Pertinence des Résultats
Utilisez quand : les résultats devraient être classés supplémentairement selon une logique métier basée sur les données, comme la récence ou la distance.
Vérifiez comment configurer dans la documentation Score Boosting
Ce qu'il NE FAUT PAS Faire
- Utiliser hybrid search avant de vérifier la qualité de la recherche vectorielle pure (ajoute de la complexité, peut masquer les problèmes de modèle)
- Ignorer l'évaluation lors de l'ajout de relevance feedback (c'est bon de vérifier sur des requêtes réelles que cela pourrait réellement aider)