qdrant-search-strategies

--- Guides pour la sélection de stratégie de recherche Qdrant. À utiliser quand quelqu'un demande « devrais-je utiliser la recherche hybride ? », « comment réclasser ? », « les résultats ne sont pas pertinents », « je n'obtiens pas les résultats nécessaires de mon ensemble de données mais ils y sont », « la qualité de la récupération n'est pas assez bonne », « résultats trop similaires », « besoin de diversité », « MMR », « retour de pertinence », « API de recommandation », « API de découverte », ou « correspondances de mots-clés manquantes »

npx skills add https://github.com/qdrant/skills --skill qdrant-search-strategies

Comment Améliorer les Résultats de Recherche avec des Stratégies Avancées

Ces stratégies complètent la recherche vectorielle de base. Utilisez-les après avoir confirmé que le modèle d'embedding convient à la tâche et que la configuration HNSW est correcte. Si la recherche exacte retourne de mauvais résultats, vérifiez d'abord la sélection du modèle d'embedding (retriever). Si l'utilisateur souhaite utiliser un modèle d'embedding plus faible parce qu'il est petit, rapide et bon marché, utilisez le reranking ou la relevance feedback pour améliorer la qualité de la recherche.

Correspondances de Mots-clés Manquantes ou Besoin de Combiner Plusieurs Signaux de Recherche

Utilisez quand : la recherche vectorielle pure manque des correspondances de mots-clés/termes de domaine, ou le cas d'usage bénéficie de la combinaison de recherches sur plusieurs représentations (y compris les langues et modalités) du même élément.

Voir comment utiliser la hybrid search

Bons Documents Trouvés Mais Pas dans les Résultats Supérieurs

Utilisez quand : bon rappel mais mauvaise précision (bons documents dans le top-100, pas le top-10).

Bons Documents Non Trouvés Mais Ils Sont Là

Utilisez quand : la récupération de base est en place mais le retriever manque des éléments pertinents que vous savez exister dans le dataset. Fonctionne sur toute donnée intégrable (texte, images, etc.).

Relevance Feedback (RF) Query utilise les scores d'un modèle de feedback sur les résultats récupérés pour diriger le retriever à travers l'espace vectoriel complet lors des itérations suivantes, comme un reranking de toute la collection via le retriever. Complémentaire au reranking : un reranker voit un sous-ensemble limité, RF exploite les signaux de feedback à l'échelle de la collection. Même 3–5 scores de feedback suffisent. Peut exécuter plusieurs itérations.

Un modèle de feedback est n'importe quoi produisant un score de pertinence par document : un bi-encoder, cross-encoder, modèle late-interaction, LLM-as-judge. Les scores de pertinence flous fonctionnent, pas seulement binaires (bon/mauvais, pertinent/non pertinent), du fait que le feedback est exprimé comme un score de pertinence gradué (plus haut = plus pertinent).

Ignorez quand : si le retriever a déjà un bon rappel, ou si le retriever et le modèle de feedback s'accordent fortement sur la pertinence.

  • RF Query est actuellement basée sur une formule naïve à 3 paramètres sans défauts universels, elle doit donc être ajustée par dataset, retriever et modèle de feedback
  • Utilisez qdrant-relevance-feedback pour ajuster les paramètres, évaluer l'impact avec Evaluator et vérifier l'accord retriever-feedback. Voir le README pour les instructions de configuration. Aucun GPU n'est nécessaire, et le framework fournit également des options de retriever et modèle de feedback prédéfinis.
  • Vérifiez la configuration de l'API Relevance Feedback Query
  • Utilisez ceci comme un exemple de récupération de texte end-to-end avec ajustement de paramètres et évaluations pour comprendre comment utiliser l'API et exécuter le framework qdrant-relevance-feedback : RF tutorial

Résultats Trop Similaires

Utilisez quand : les résultats supérieurs sont redondants, quasi-identiques, ou manquent de diversité. Courant dans les domaines de contenu dense (articles académiques, catalogues de produits).

  • Utilisez MMR (v1.15+) comme paramètre de requête avec diversity pour équilibrer pertinence et diversité MMR
  • Commencez avec diversity=0.5, réduisez pour plus de précision, augmentez pour plus d'exploration
  • MMR est plus lent que la recherche standard. Utilisez-le seulement quand la redondance est un problème réel.

Voulez-vous Améliorer les Résultats de Recherche en Fonction d'Exemples (Positifs et Négatifs)

Utilisez quand : vous pouvez fournir des points d'exemple positifs et négatifs pour diriger la recherche plus près des positifs et plus loin des négatifs.

  • API de Recommandation : exemples positifs/négatifs pour recommander les vecteurs appropriés Recommendation API
    • Stratégie meilleur score : meilleure pour les exemples divers, supporte négatif uniquement Best score
  • Discovery API : paires de contexte (positif/négatif) pour contraindre les régions de recherche sans cible de requête Discovery

Avoir une Logique Métier Derrière la Pertinence des Résultats

Utilisez quand : les résultats devraient être classés supplémentairement selon une logique métier basée sur les données, comme la récence ou la distance.

Vérifiez comment configurer dans la documentation Score Boosting

Ce qu'il NE FAUT PAS Faire

  • Utiliser hybrid search avant de vérifier la qualité de la recherche vectorielle pure (ajoute de la complexité, peut masquer les problèmes de modèle)
  • Ignorer l'évaluation lors de l'ajout de relevance feedback (c'est bon de vérifier sur des requêtes réelles que cela pourrait réellement aider)