qdrant-search-quality-diagnosis

--- Diagnostique les problèmes de qualité de recherche Qdrant. À utiliser lorsque quelqu'un signale « les résultats sont mauvais », « mauvais résultats », « résultats non pertinents », « correspondances manquantes », « rappel faible », « recherche approximative pire qu'exacte », « quel modèle d'embedding », ou « la qualité a diminué après quantification ». À utiliser également lorsque la qualité de la recherche se dégrade sans changements évidents.

npx skills add https://github.com/qdrant/skills --skill qdrant-search-quality-diagnosis

Comment diagnostiquer une mauvaise qualité de recherche

Avant le réglage, établissez des lignes de base. Utilisez exact KNN comme vérité de base, comparez par rapport à HNSW approximatif. Ciblez >95% recall@K pour la production.

Ne sais pas encore ce qui ne va pas

À utiliser quand : les résultats sont non pertinents ou les correspondances attendues manquent et vous devez isoler la cause.

  • Testez avec exact=true pour contourner l'approximation HNSW Search API
  • Exact bad = problème de modèle ou pipeline de recherche. Exact good, approximate bad = accordez HNSW.
  • Vérifiez si la quantification dégrade la qualité (comparez avec et sans)
  • Vérifiez si les filtres sont trop restrictifs (alors vous pourriez avoir besoin d'utiliser ACORN)
  • Si résultats en double à partir de documents fragmentés, utilisez l'API Grouping pour dédupliquer Grouping

Le filtrage de payload et la recherche par vecteur creux sont des choses différentes. Les métadonnées (dates, catégories, tags) vont dans le payload pour le filtrage. Le contenu textuel va dans les vecteurs creux pour la recherche.

Recherche approximative pire qu'exacte

À utiliser quand : la recherche exacte retourne de bons résultats mais l'approximation HNSW les manque.

La quantification binaire nécessite rescore. Sans cela, la perte de qualité est grave. Utilisez oversampling (3-5x minimum pour binaire) pour récupérer la recall. Testez toujours l'impact de la quantification sur vos données avant la production. Quantization

Mauvais modèle d'embedding

À utiliser quand : la recherche exacte retourne aussi de mauvais résultats.

Consultez les recommandations de l'équipe Qdrant sur comment choisir un modèle d'embedding.

Testez les 3 meilleurs modèles MTEB sur 100-1000 requêtes d'exemple. Qdrant inference hébergé

Pipeline de recherche non optimisé

À utiliser quand : la recherche exacte retourne aussi de mauvais résultats et le choix du modèle est confirmé par l'utilisateur.

Optimisez la recherche selon la compétence advanced search-strategies.

Ce qu'il NE FAUT PAS faire

  • Accorder Qdrant avant de vérifier que le modèle est approprié pour la tâche (la plupart des problèmes de qualité sont des problèmes de modèle)
  • Utiliser la quantification binaire sans rescore (perte de qualité grave)
  • Définir hnsw_ef inférieur aux résultats demandés (rappel mauvais garanti)
  • Ignorer les index de payload sur les champs filtrés puis blâmer la qualité (HNSW ne peut pas traverser les nœuds filtrés, et HNSW filtrable est construit uniquement si les index de payload ont été configurés au préalable)
  • Déployer sans rappel de base ou autres métriques de pertinence de recherche (aucun moyen de mesurer les régressions)
  • Confondre le filtrage de payload avec la recherche par vecteur creux (choses différentes, configuration différente)