qdrant-search-strategies

npx skills add https://github.com/qdrant/skills --skill qdrant-search-strategies

Comment améliorer les résultats de recherche avec des stratégies avancées

Ces stratégies complètent la recherche vectorielle basique. Utilisez-les après avoir confirmé que le modèle d'embedding correspond à la tâche et que la configuration HNSW est correcte. Si la recherche exacte retourne de mauvais résultats, vérifiez d'abord le choix du modèle d'embedding (retriever). Si l'utilisateur souhaite utiliser un modèle d'embedding plus faible parce qu'il est petit, rapide et bon marché, utilisez le reranking ou la relevance feedback pour améliorer la qualité de la recherche.

Correspondances de mots-clés manquantes ou besoin de combiner plusieurs signaux de recherche

À utiliser quand : la recherche vectorielle pure manque des correspondances de mots-clés ou de termes de domaine, ou le cas d'usage bénéficie de la combinaison de recherches sur plusieurs représentations (incluant les langues et modalités) du même élément.

Voir comment utiliser la recherche hybride

Les bons documents trouvés mais pas dans les premiers résultats

À utiliser quand : bon rappel mais faible précision (bons docs dans le top-100, pas le top-10).

Les bons documents non trouvés mais présents dans la collection

À utiliser quand : la récupération basique est en place mais le retriever manque des éléments pertinents dont vous savez qu'ils existent dans le dataset. Fonctionne sur toute donnée embedable (texte, images, etc.).

La requête Relevance Feedback (RF) utilise les scores d'un modèle de feedback sur les résultats récupérés pour guider le retriever dans tout l'espace vectoriel lors des itérations suivantes, comme faire du reranking sur la collection entière via le retriever. Complémentaire au reranking : un reranker voit un sous-ensemble limité, RF exploite les signaux de feedback à l'échelle de la collection. Même 3–5 scores de feedback suffisent. Peut exécuter plusieurs itérations.

Un modèle de feedback est tout ce qui produit un score de pertinence par document : un bi-encoder, cross-encoder, modèle à interaction tardive, LLM-as-judge. Les scores de pertinence flous fonctionnent, pas seulement les scores binaires (bon/mauvais, pertinent/non pertinent), du fait que le feedback s'exprime comme un score de pertinence gradué (plus élevé = plus pertinent).

À sauter si : le retriever a déjà un fort rappel, ou si le retriever et le modèle de feedback s'accordent fortement sur la pertinence.

  • RF Query est actuellement basée sur une formule naïve à 3 paramètres sans valeurs par défaut universelles, elle doit donc être ajustée par dataset, retriever et modèle de feedback
  • Utilisez qdrant-relevance-feedback pour ajuster les paramètres, évaluer l'impact avec Evaluator et vérifier l'accord retriever-feedback. Voir le README pour les instructions de configuration. Aucun GPU n'est nécessaire, et le framework fournit également des options de retriever et modèle de feedback prédéfinis.
  • Vérifiez la configuration de l'API Relevance Feedback Query
  • Utilisez ceci comme exemple de récupération texte end-to-end avec ajustement de paramètres et évals pour comprendre comment utiliser l'API et exécuter le framework qdrant-relevance-feedback : tutoriel RF

Résultats trop similaires

À utiliser quand : les premiers résultats sont redondants, quasi-dupliqués ou manquent de diversité. Courant dans les domaines avec contenu dense (articles académiques, catalogues de produits).

  • Utilisez MMR (v1.15+) comme paramètre de requête avec diversity pour équilibrer pertinence et diversité MMR
  • Commencez avec diversity=0,5, réduisez pour plus de précision, augmentez pour plus d'exploration
  • MMR est plus lent que la recherche standard. Utilisez-le seulement si la redondance est un problème réel.

Vouloir améliorer les résultats de recherche en fonction d'exemples (positifs et négatifs)

À utiliser quand : vous pouvez fournir des points d'exemple positifs et négatifs pour diriger la recherche plus près des positifs et plus loin des négatifs.

  • API Recommendation : exemples positifs/négatifs pour recommander des vecteurs correspondants API Recommendation
    • Stratégie best score : mieux pour les exemples divers, supporte négatif-seulement Best score
  • API Discovery : paires de contexte (positif/négatif) pour contraindre les régions de recherche sans cible de requête Discovery

Avoir de la logique métier derrière la pertinence des résultats

À utiliser quand : les résultats doivent être classés supplémentairement selon une logique métier basée sur les données, comme la récence ou la distance.

Vérifiez comment configurer dans la documentation Score Boosting

Ce qu'il NE FAUT PAS faire

  • Utiliser la recherche hybride avant de vérifier la qualité de la recherche vectorielle pure (ajoute de la complexité, peut masquer les problèmes de modèle)
  • Sauter l'évaluation lors de l'ajout de relevance feedback (c'est bien de vérifier sur des vraies requêtes que cela peut réellement aider)

Skills similaires