Training & Fine-tuning
Entrainement et fine-tuning de modeles, MLOps, recherche scientifique.
| # | Skill | Source | Description | ||
|---|---|---|---|---|---|
| 1 | aoti-debug | pytorch/pytorch | Diagnostiquer et corriger les erreurs courantes d'AOTInductor avec méthode. | 99 882 | |
| 2 | pt2-bug-basher | pytorch/pytorch | Déboguer les erreurs de compilation PyTorch 2 via Dynamo, Inductor et AOTAutograd. | 99 882 | |
| 3 | backtesting-frameworks | wshobson/agents | Construire des systèmes de backtesting robustes pour évaluer fiablement des stratégies de trading. | 35 315 | |
| 4 | arize-annotation | github/awesome-copilot | Créer et gérer des configs d'annotation pour labelliser des spans IA via Arize. | 32 867 | |
| 5 | arize-experiment | github/awesome-copilot | Gérer et exporter des expériences d'évaluation de modèles IA via Arize. | 32 867 | |
| 6 | datanalysis-credit-risk | github/awesome-copilot | Nettoyer et sélectionner des variables pour modélisation de risque crédit. | 32 867 | |
| 7 | eval-driven-dev | github/awesome-copilot | Construire un pipeline d'évaluation automatisé end-to-end pour applications Python utilisant un LLM. | 32 867 | |
| 8 | jupyter-notebook | openai/skills | Créer et structurer des notebooks Jupyter reproductibles pour expériences ou tutoriels. | 19 019 | |
| 9 | scvi-tools | anthropics/knowledge-work-plugins | Analyser des données single-cell multi-modales avec les modèles probabilistes scvi-tools. | 12 097 | |
| 10 | statistical-analysis | anthropics/knowledge-work-plugins | Analyser des données statistiques avec tendances, distributions et tests d'hypothèses. | 12 097 | |
| 11 | huggingface-community-evals | huggingface/skills | Évaluer localement des modèles Hugging Face Hub avec inspect-ai ou lighteval. | 10 482 | |
| 12 | huggingface-llm-trainer | huggingface/skills | Entraîner des modèles de langage avec TRL sur l'infrastructure cloud Hugging Face Jobs. | 10 482 | |
| 13 | huggingface-trackio | huggingface/skills | Suivre, visualiser et piloter des expériences d'entraînement ML en temps réel. | 10 482 | |
| 14 | huggingface-vision-trainer | huggingface/skills | Entraîner des modèles de vision (détection, classification, segmentation) sur GPU cloud Hugging Face. | 10 482 | |
| 15 | train-sentence-transformers | huggingface/skills | Entraîner des modèles sentence-transformers bi-encodeur, cross-encoder ou SPLADE selon le cas d'usage. | 10 482 | |
| 16 | azure-ai-ml-py | microsoft/skills | Gérer les ressources Azure ML via le SDK Python v2. | 2 300 | |
| 17 | eval-bootstrap | datadog-labs/agent-skills | Générer du code d'évaluation Python à partir de traces de production LLM Datadog. | 107 | |
| 18 | experiment-analyzer | datadog-labs/agent-skills | Analyser et comparer des expériences LLM via leurs métriques, dimensions et événements. | 107 | |
| 19 | accessing-mlflow | nvidia/skills | Interroger et comparer des runs MLflow via langage naturel et MCP. | 85 | |
| 20 | ad-add-fusion-transformation | nvidia/skills | Ajouter, étendre ou auditer un pass de fusion dans AutoDeploy de TensorRT-LLM. | 85 | |
| 21 | ad-graph-dump | nvidia/skills | Visualiser l'évolution des graphes FX après chaque transformation AutoDeploy via dump. | 85 | |
| 22 | ad-model-onboard | nvidia/skills | Automatiser l'intégration de modèles HuggingFace dans AutoDeploy avec tests et rapport. | 85 | |
| 23 | add-benchmark | nvidia/skills | Intégrer un benchmark natif ou externe dans le framework NeMo-Gym. | 85 | |
| 24 | adding-cutile-kernel | nvidia/skills | Intégrer un nouvel opérateur cuTile dans TileGym selon un workflow structuré étape par étape. | 85 | |
| 25 | byob | nvidia/skills | Créer des benchmarks d'évaluation personnalisés pour LLM avec NeMo Evaluator. | 85 | |
| 26 | converting-cutile-to-triton | nvidia/skills | Convertir des kernels cuTile en kernels Triton via un workflow structuré en cinq phases. | 85 | |
| 27 | cudaq-guide | nvidia/skills | Guider l'utilisateur dans CUDA-Q : installation, simulation GPU et accès QPU. | 85 | |
| 28 | cuopt-installation-api-python | nvidia/skills | Installer cuOpt via pip, conda ou Docker pour optimiser des routes en Python. | 85 | |
| 29 | cuopt-lp-milp-api-python | nvidia/skills | Modéliser et résoudre des programmes linéaires LP/MILP avec le solveur GPU cuOpt. | 85 | |
| 30 | cuopt-numerical-optimization-api-python | nvidia/skills | Modéliser et résoudre des problèmes LP, MILP et QP avec cuOpt GPU d'NVIDIA. | 85 | |
| 31 | cuopt-qp-api-cli | nvidia/skills | Résoudre des problèmes d'optimisation quadratique via l'interface CLI cuOpt. | 85 | |
| 32 | cuopt-qp-api-python | nvidia/skills | Résoudre des problèmes d'optimisation quadratique en Python avec cuOpt QP. | 85 | |
| 33 | cuopt-user-rules | nvidia/skills | Optimiser des problèmes de routage et logistique avec cuOpt via des échanges guidés. | 85 | |
| 34 | cutile-python | nvidia/skills | Écrire, déboguer et optimiser des kernels GPU haute performance avec cuTile Python. | 85 | |
| 35 | evaluation | nvidia/skills | Générer et exécuter des configurations YAML d'évaluation de modèles LLM via NeMo Evaluator. | 85 | |
| 36 | exec-local-compile | nvidia/skills | Compiler TensorRT-LLM depuis les sources sur un nœud de calcul avec GPU. | 85 | |
| 37 | flashinfer-upgrade | nvidia/skills | Mettre à jour automatiquement le package flashinfer-python dans TensorRT-LLM. | 85 | |
| 38 | kernel-cute-writing | nvidia/skills | Développer des kernels GPU optimisés en Python via JIT compilation CUDA avec CUTLASS. | 85 | |
| 39 | kernel-tileir-optimization | nvidia/skills | Optimiser des kernels Triton existants pour le backend TileIR de Blackwell GPUs. | 85 | |
| 40 | kernel-triton-writing | nvidia/skills | Écrire des kernels Triton corrects, performants et précis pour agents IA. | 85 | |
| 41 | launching-evals | nvidia/skills | Lancer, surveiller et analyser des évaluations de modèles IA via NeMo Evaluator. | 85 | |
| 42 | mlm-bridge-training | nvidia/skills | Comparer et valider les pertes entre Megatron-LM et Bridge sur GPU. | 85 | |
| 43 | monkey-patch-kernels-to-transformers | nvidia/skills | Intégrer des kernels TileGym dans Transformers via monkey-patching pour optimiser les LLM. | 85 | |
| 44 | nel-assistant | nvidia/skills | Générer et exécuter des configurations YAML d'évaluation de modèles via NeMo Evaluator. | 85 | |
| 45 | parity-testing | nvidia/skills | Vérifier la parité des poids et des passes avant entre modèles HF et Megatron. | 85 | |
| 46 | perf-activation-recompute | nvidia/skills | Optimiser la mémoire GPU en recomputant sélectivement les activations pendant la rétropropagation. | 85 | |
| 47 | perf-host-optimization | nvidia/skills | Détecter et optimiser automatiquement les goulots d'étranglement CPU dans TensorRT-LLM. | 85 | |
| 48 | perf-megatron-fsdp | nvidia/skills | Configurer et valider l'entraînement distribué avec Megatron FSDP dans Bridge. | 85 | |
| 49 | perf-moe-dispatcher-selection | nvidia/skills | Sélectionner le dispatcher MoE optimal selon le matériel, le modèle et le degré EP. | 85 | |
| 50 | perf-moe-hardware-configs | nvidia/skills | Configurer les paramètres matériels optimaux pour entraîner des modèles MoE sur GPU. | 85 |
À propos de cette sélection
Quand un modèle de base commence à produire des réponses trop génériques pour rester crédibles en production, le travail sérieux commence. Cette section s'adresse aux ingénieurs ML et aux équipes qui adaptent, évaluent et débogent des modèles en conditions réelles : affiner un LLM sur un corpus métier avec Hugging Face, tracer des expériences d'entraînement bout en bout, ou remonter un bug de compilation dans le runtime PyTorch avant qu'il bloque un pipeline entier.
Les skills training & fine-tuning couvrent un spectre plus large que le seul fine-tuning supervisé. On y trouve des outils d'annotation, de benchmarking, de kernels custom côté NVIDIA, et quelques skills orientés recherche reproductible. L'outillage reste majoritairement Python, avec une densité forte autour des frameworks majeurs. Certains cas avancés demandent encore de composer plusieurs skills ensemble, mais la base est solide.