LLM & Inférence
Fournisseurs LLM et inference : Anthropic, OpenAI, Hugging Face, agents conversationnels.
| # | Skill | Source | Description | Δ | |
|---|---|---|---|---|---|
| Données de tendance en cours de constitution. Reviens dans quelques jours, le temps que l'historique des étoiles se remplisse pour cette catégorie. | |||||
À propos de cette sélection
L'outillage autour des modèles de langage a mûri vite, mais de façon inégale : certaines briques sont solides, d'autres restent expérimentales ou peu documentées hors des cas standards. Les **skills llm & inférence** de cette section ciblent les devs qui passent de l'expérimentation à la mise en production réelle.
Concrètement, ça parle au dev backend Python qui orchestre des appels à Claude ou à des modèles Hugging Face avec gestion fine des tokens et des coûts, et au fullstack TypeScript qui branche un agent conversationnel sur une UI existante. Les contraintes d'inférence, de latence et de traçabilité divergent vite entre ces deux profils. Les skills couvrent aussi l'évaluation de prompts et le monitoring de traces, deux angles souvent négligés dans les tutos d'entrée de gamme.