LLM & Inférence
Fournisseurs LLM et inference : Anthropic, OpenAI, Hugging Face, agents conversationnels.
| # | Skill | Source | Description | ||
|---|---|---|---|---|---|
| 1 | langchain-architecture | wshobson/agents | Construire des agents IA sophistiqués avec LangChain, LangGraph et gestion d'état. | 35 315 | |
| 2 | llm-evaluation | wshobson/agents | Évaluer les performances des LLM via métriques automatisées, jugement humain et A/B testing. | 35 315 | |
| 3 | agent-governance | github/awesome-copilot | Appliquer des règles de sécurité et de conformité aux actions d'un agent IA. | 32 867 | |
| 4 | agentic-eval | github/awesome-copilot | Implémenter des boucles d'évaluation itératives pour affiner et améliorer les sorties d'agents IA. | 32 867 | |
| 5 | doublecheck | github/awesome-copilot | Vérifier automatiquement les affirmations d'une réponse IA avec sourçage détaillé. | 32 867 | |
| 6 | phoenix-evals | github/awesome-copilot | Construire et valider des évaluateurs LLM pour applications IA en production. | 32 867 | |
| 7 | phoenix-tracing | github/awesome-copilot | Instrumenter des applications LLM avec Phoenix via le tracing OpenInference. | 32 867 | |
| 8 | python-mcp-server-generator | github/awesome-copilot | Générer un serveur MCP Python complet, production-ready, avec outils typés et gestion d'erreurs. | 32 867 | |
| 9 | hf-mcp | huggingface/skills | Connecter des assistants IA au Hub Hugging Face pour modèles, datasets et jobs GPU. | 10 482 | |
| 10 | huggingface-paper-publisher | huggingface/skills | Publier, gérer et lier des articles de recherche sur Hugging Face Hub. | 10 482 | |
| 11 | gemini-api-dev | google-gemini/gemini-skills | Intégrer et utiliser l'API Gemini avec les SDK officiels à jour. | 3 473 | |
| 12 | gemini-live-api-dev | google-gemini/gemini-skills | Développer des interactions vocales et vidéo temps réel avec l'API Gemini Live. | 3 473 | |
| 13 | agent-framework-azure-ai-py | microsoft/skills | Créer des agents persistants sur Azure AI Foundry avec outils intégrés et gestion de conversation. | 2 300 | |
| 14 | azure-ai-contentunderstanding-py | microsoft/skills | Extraire du contenu sémantique multimodal depuis documents, vidéos, audios et images. | 2 300 | |
| 15 | azure-ai-language-conversations-py | microsoft/skills | Implémenter l'analyse conversationnelle Azure AI avec le SDK Python dédié. | 2 300 | |
| 16 | azure-ai-projects-py | microsoft/skills | Créer et déployer des agents IA sur Microsoft Azure Foundry via le SDK Python. | 2 300 | |
| 17 | azure-ai-vision-imageanalysis-py | microsoft/skills | Analyser des images Azure AI pour extraire texte, objets, légendes et tags. | 2 300 | |
| 18 | deep-agents-core | langchain-ai/langchain-skills | Créer des agents IA multi-étapes avec planification, mémoire persistante et délégation de tâches. | 681 | |
| 19 | deep-agents-orchestration | langchain-ai/langchain-skills | Orchestrer des agents IA avec délégation de tâches, planification et contrôle humain. | 681 | |
| 20 | framework-selection | langchain-ai/langchain-skills | Choisir le bon framework IA entre LangChain, LangGraph et Deep Agents. | 681 | |
| 21 | langchain-dependencies | langchain-ai/langchain-skills | Configurer les dépendances LangChain selon les versions et cas d'usage requis. | 681 | |
| 22 | langchain-fundamentals | langchain-ai/langchain-skills | Construire des agents IA production avec create_agent(), middleware et décorateur @tool. | 681 | |
| 23 | langchain-middleware | langchain-ai/langchain-skills | Implémenter des middlewares HITL pour approuver, modifier ou rejeter les appels d'outils d'agents LangChain. | 681 | |
| 24 | langchain-rag | langchain-ai/langchain-skills | Construire un pipeline RAG complet pour enrichir les réponses LLM avec des sources externes. | 681 | |
| 25 | langgraph-fundamentals | langchain-ai/langchain-skills | Concevoir et gérer des graphes d'agents LangGraph avec état et reducers. | 681 | |
| 26 | langgraph-human-in-the-loop | langchain-ai/langchain-skills | Implémenter des pauses interactives dans un graphe LangGraph pour valider des actions humaines. | 681 | |
| 27 | langgraph-persistence | langchain-ai/langchain-skills | Gérer la persistance d'état par threads et checkpoints dans un graphe LangGraph. | 681 | |
| 28 | developing-genkit-python | firebase/agent-skills | Construire des applications IA en Python avec le SDK Genkit et Google Gemini. | 280 | |
| 29 | eval-trace-rca | datadog-labs/agent-skills | Analyser les causes racines des échecs d'évaluations et erreurs dans les traces LLM de production. | 107 | |
| 30 | adding-model-support | nvidia/skills | Intégrer un nouveau modèle LLM ou VLM dans le framework Megatron-Bridge. | 85 | |
| 31 | deployment | nvidia/skills | Déployer un checkpoint de modèle comme endpoint d'inférence compatible OpenAI. | 85 | |
| 32 | serve-config-guide | nvidia/skills | Générer une configuration YAML optimisée pour déployer des LLMs via trtllm-serve. | 85 | |
| 33 | livekit-agents | livekit/agent-skills | Développer des agents vocaux IA sur LiveKit Cloud avec guidance et bonnes pratiques. | 50 | |
| 34 | feature-usage-feed | posthog/skills | Créer un flux Slack automatique des cas d'usage réels d'une feature IA via LLM evals. | 34 | |
| 35 | instrument-llm-analytics | posthog/skills | Intégrer PostHog pour tracer les usages LLM avec tokens, latence et coûts. | 34 | |
| 36 | omnibus-instrument-llm-analytics | posthog/skills | Intégrer PostHog pour tracer et analyser les appels LLM dans n'importe quel projet IA. | 34 |
À propos de cette sélection
L'outillage autour des modèles de langage a mûri vite, mais de façon inégale : certaines briques sont solides, d'autres restent expérimentales ou peu documentées hors des cas standards. Les **skills llm & inférence** de cette section ciblent les devs qui passent de l'expérimentation à la mise en production réelle.
Concrètement, ça parle au dev backend Python qui orchestre des appels à Claude ou à des modèles Hugging Face avec gestion fine des tokens et des coûts, et au fullstack TypeScript qui branche un agent conversationnel sur une UI existante. Les contraintes d'inférence, de latence et de traçabilité divergent vite entre ces deux profils. Les skills couvrent aussi l'évaluation de prompts et le monitoring de traces, deux angles souvent négligés dans les tutos d'entrée de gamme.