Bases vectorielles

Stockage et recherche d'embeddings : Pinecone, Qdrant, recherche semantique.

8 skills

# Skill Source Description Δ
1 hybrid-search-implementation wshobson/agents Combiner recherche vectorielle et par mots-clés pour améliorer le rappel RAG. 35 314 44
2 similarity-search-patterns wshobson/agents Implémenter une recherche vectorielle sémantique efficace et scalable en production. 35 314 44
3 vector-index-tuning wshobson/agents Optimiser les index vectoriels HNSW pour maximiser rappel, vitesse et mémoire. 35 314 44
4 azure-search-documents-py microsoft/skills Implémenter la recherche full-text, vectorielle et hybride avec Azure AI Search. 2 300 8
5 pinecone-assistant pinecone-io/skills Créer, alimenter et interroger un assistant RAG Pinecone via des scripts. 12 0
6 pinecone-quickstart pinecone-io/skills Effectuer une recherche sémantique vectorielle avec Pinecone via un agent IA guidé. 12 0
7 chroma-local chroma-core/agent-skills Intégrer Chroma localement pour indexer et interroger des documents via embeddings. 17 0
8 pinecone-full-text-search pinecone-io/skills Créer et interroger un index full-text-search Pinecone avec l'API preview. 12 0

À propos de cette sélection

Relier un LLM à une mémoire persistante exige bien plus qu'un appel HTTP. Il faut créer des collections typées, gérer les namespaces par tenant, calibrer les paramètres HNSW pour que la latence reste acceptable sous charge, et piloter les mises à jour d'embeddings sans corrompre les vecteurs existants. Ce sont ces opérations que couvrent les skills bases vectorielles répertoriés ici. Le profil ciblé est le dev backend ou ML engineer qui intègre de la recherche sémantique dans un pipeline RAG ou un moteur de recommandation. Qdrant concentre une part importante de la sélection, avec des skills dédiés à la migration de modèles, au scaling et à l'optimisation d'indexation. Pinecone est aussi représenté. L'outillage est mature côté SDK, mais reste fragmenté dès qu'on touche à l'observabilité ou au fine-tuning des index en production.