Training & Fine-tuning
Entrainement et fine-tuning de modeles, MLOps, recherche scientifique.
| # | Skill | Source | Description | ||
|---|---|---|---|---|---|
| 1 | ranger-finance | elophanto/elophanto | Agréger et router des ordres de futures perpétuels sur Solana via plusieurs protocoles. | 59 |
À propos de cette sélection
Quand un modèle de base commence à produire des réponses trop génériques pour rester crédibles en production, le travail sérieux commence. Cette section s'adresse aux ingénieurs ML et aux équipes qui adaptent, évaluent et débogent des modèles en conditions réelles : affiner un LLM sur un corpus métier avec Hugging Face, tracer des expériences d'entraînement bout en bout, ou remonter un bug de compilation dans le runtime PyTorch avant qu'il bloque un pipeline entier.
Les skills training & fine-tuning couvrent un spectre plus large que le seul fine-tuning supervisé. On y trouve des outils d'annotation, de benchmarking, de kernels custom côté NVIDIA, et quelques skills orientés recherche reproductible. L'outillage reste majoritairement Python, avec une densité forte autour des frameworks majeurs. Certains cas avancés demandent encore de composer plusieurs skills ensemble, mais la base est solide.