Bases vectorielles

Stockage et recherche d'embeddings : Pinecone, Qdrant, recherche semantique.

8 skills

# Skill Source Description
1 hybrid-search-implementation wshobson/agents Combiner recherche vectorielle et par mots-clés pour améliorer le rappel RAG. 35 315
2 similarity-search-patterns wshobson/agents Implémenter une recherche vectorielle sémantique efficace et scalable en production. 35 315
3 vector-index-tuning wshobson/agents Optimiser les index vectoriels HNSW pour maximiser rappel, vitesse et mémoire. 35 315
4 azure-search-documents-py microsoft/skills Implémenter la recherche full-text, vectorielle et hybride avec Azure AI Search. 2 300
5 chroma-local chroma-core/agent-skills Intégrer Chroma localement pour indexer et interroger des documents via embeddings. 17
6 pinecone-assistant pinecone-io/skills Créer, alimenter et interroger un assistant RAG Pinecone via des scripts. 12
7 pinecone-full-text-search pinecone-io/skills Créer et interroger un index full-text-search Pinecone avec l'API preview. 12
8 pinecone-quickstart pinecone-io/skills Effectuer une recherche sémantique vectorielle avec Pinecone via un agent IA guidé. 12

À propos de cette sélection

Relier un LLM à une mémoire persistante exige bien plus qu'un appel HTTP. Il faut créer des collections typées, gérer les namespaces par tenant, calibrer les paramètres HNSW pour que la latence reste acceptable sous charge, et piloter les mises à jour d'embeddings sans corrompre les vecteurs existants. Ce sont ces opérations que couvrent les skills bases vectorielles répertoriés ici. Le profil ciblé est le dev backend ou ML engineer qui intègre de la recherche sémantique dans un pipeline RAG ou un moteur de recommandation. Qdrant concentre une part importante de la sélection, avec des skills dédiés à la migration de modèles, au scaling et à l'optimisation d'indexation. Pinecone est aussi représenté. L'outillage est mature côté SDK, mais reste fragmenté dès qu'on touche à l'observabilité ou au fine-tuning des index en production.