Bases vectorielles
Stockage et recherche d'embeddings : Pinecone, Qdrant, recherche semantique.
| # | Skill | Source | Description | Δ | |
|---|---|---|---|---|---|
| 1 | azure-search-documents-py | microsoft/skills | Implémenter la recherche full-text, vectorielle et hybride avec Azure AI Search. | 2 300 | 68 |
| 2 | pinecone-assistant | pinecone-io/skills | Créer, alimenter et interroger un assistant RAG Pinecone via des scripts. | 12 | 3 |
| 3 | pinecone-quickstart | pinecone-io/skills | Effectuer une recherche sémantique vectorielle avec Pinecone via un agent IA guidé. | 12 | 3 |
| 4 | pinecone-full-text-search | pinecone-io/skills | Créer et interroger un index full-text-search Pinecone avec l'API preview. | 12 | 3 |
| 5 | chroma-local | chroma-core/agent-skills | Intégrer Chroma localement pour indexer et interroger des documents via embeddings. | 17 | 2 |
À propos de cette sélection
Relier un LLM à une mémoire persistante exige bien plus qu'un appel HTTP. Il faut créer des collections typées, gérer les namespaces par tenant, calibrer les paramètres HNSW pour que la latence reste acceptable sous charge, et piloter les mises à jour d'embeddings sans corrompre les vecteurs existants. Ce sont ces opérations que couvrent les skills bases vectorielles répertoriés ici. Le profil ciblé est le dev backend ou ML engineer qui intègre de la recherche sémantique dans un pipeline RAG ou un moteur de recommandation. Qdrant concentre une part importante de la sélection, avec des skills dédiés à la migration de modèles, au scaling et à l'optimisation d'indexation. Pinecone est aussi représenté. L'outillage est mature côté SDK, mais reste fragmenté dès qu'on touche à l'observabilité ou au fine-tuning des index en production.