Bases vectorielles

Stockage et recherche d'embeddings : Pinecone, Qdrant, recherche semantique.

5 skills

# Skill Source Description Δ
1 azure-search-documents-py microsoft/skills Implémenter la recherche full-text, vectorielle et hybride avec Azure AI Search. 2 300 68
2 pinecone-assistant pinecone-io/skills Créer, alimenter et interroger un assistant RAG Pinecone via des scripts. 12 3
3 pinecone-quickstart pinecone-io/skills Effectuer une recherche sémantique vectorielle avec Pinecone via un agent IA guidé. 12 3
4 pinecone-full-text-search pinecone-io/skills Créer et interroger un index full-text-search Pinecone avec l'API preview. 12 3
5 chroma-local chroma-core/agent-skills Intégrer Chroma localement pour indexer et interroger des documents via embeddings. 17 2

À propos de cette sélection

Relier un LLM à une mémoire persistante exige bien plus qu'un appel HTTP. Il faut créer des collections typées, gérer les namespaces par tenant, calibrer les paramètres HNSW pour que la latence reste acceptable sous charge, et piloter les mises à jour d'embeddings sans corrompre les vecteurs existants. Ce sont ces opérations que couvrent les skills bases vectorielles répertoriés ici. Le profil ciblé est le dev backend ou ML engineer qui intègre de la recherche sémantique dans un pipeline RAG ou un moteur de recommandation. Qdrant concentre une part importante de la sélection, avec des skills dédiés à la migration de modèles, au scaling et à l'optimisation d'indexation. Pinecone est aussi représenté. L'outillage est mature côté SDK, mais reste fragmenté dès qu'on touche à l'observabilité ou au fine-tuning des index en production.