NVIDIA

NVIDIA

138 skills · 1 repo · 85

GitHub ↗

# Skill Source Description
1 accessing-mlflow nvidia/skills Interroger et comparer des runs MLflow via langage naturel et MCP. 85
2 ad-add-fusion-transformation nvidia/skills Ajouter, étendre ou auditer un pass de fusion dans AutoDeploy de TensorRT-LLM. 85
3 ad-conf-check nvidia/skills Vérifier l'application des configs YAML AutoDeploy via logs serveur et dumps de graphes. 85
4 ad-graph-dump nvidia/skills Visualiser l'évolution des graphes FX après chaque transformation AutoDeploy via dump. 85
5 ad-model-onboard nvidia/skills Automatiser l'intégration de modèles HuggingFace dans AutoDeploy avec tests et rapport. 85
6 ad-pipeline-failure-pr nvidia/skills Analyser les pipelines GitLab échoués et générer des rapports de bugs par catégorie. 85
7 add-benchmark nvidia/skills Intégrer un benchmark natif ou externe dans le framework NeMo-Gym. 85
8 adding-cutile-kernel nvidia/skills Intégrer un nouvel opérateur cuTile dans TileGym selon un workflow structuré étape par étape. 85
9 adding-model-support nvidia/skills Intégrer un nouveau modèle LLM ou VLM dans le framework Megatron-Bridge. 85
10 alerts nvidia/skills Gérer les alertes VSS en mode CV ou VLM selon le déploiement actif. 85
11 build-and-dependency nvidia/skills Construire et gérer des environnements de développement containerisés pour Megatron-LM avec CUDA. 85
12 bump-dependency nvidia/skills Gérer end-to-end le bump de dépendances GPU dans Megatron Bridge jusqu'au CI vert. 85
13 byob nvidia/skills Créer des benchmarks d'évaluation personnalisés pour LLM avec NeMo Evaluator. 85
14 ci-failure-retrieval nvidia/skills Récupérer et analyser les échecs CI Jenkins d'une pull request GitHub. 85
15 cicd nvidia/skills Configurer, déclencher et investiguer des pipelines CI/CD pour Megatron-LM. 85
16 converting-cutile-to-julia nvidia/skills Convertir des kernels GPU Python cuTile en kernels Julia cuTile.jl compilables et testés. 85
17 converting-cutile-to-triton nvidia/skills Convertir des kernels cuTile en kernels Triton via un workflow structuré en cinq phases. 85
18 create-issue nvidia/skills Analyser un échec CI GitHub Actions et créer automatiquement une issue de bug structurée. 85
19 cudaq-guide nvidia/skills Guider l'utilisateur dans CUDA-Q : installation, simulation GPU et accès QPU. 85
20 cuopt-developer nvidia/skills Modifier et contribuer au codebase C++/CUDA et Python de NVIDIA cuOpt. 85
21 cuopt-installation-api-c nvidia/skills Installer cuOpt via conda pour utiliser l'API C sur GPU NVIDIA. 85
22 cuopt-installation-api-python nvidia/skills Installer cuOpt via pip, conda ou Docker pour optimiser des routes en Python. 85
23 cuopt-installation-common nvidia/skills Identifier les prérequis système et d'environnement pour installer cuOpt correctement. 85
24 cuopt-installation-developer nvidia/skills Configurer un environnement de build cuOpt depuis les sources avec tests. 85
25 cuopt-lp-milp-api-c nvidia/skills Résoudre des problèmes LP/MILP avec l'API C de cuOpt via CSR sparse. 85
26 cuopt-lp-milp-api-cli nvidia/skills Résoudre des problèmes LP/MILP via CLI avec des fichiers MPS et cuOpt. 85
27 cuopt-lp-milp-api-python nvidia/skills Modéliser et résoudre des programmes linéaires LP/MILP avec le solveur GPU cuOpt. 85
28 cuopt-numerical-optimization-api-c nvidia/skills Résoudre des problèmes LP, MILP et QP via l'API C de cuOpt. 85
29 cuopt-numerical-optimization-api-cli nvidia/skills Résoudre des problèmes LP, MILP et QP via fichiers MPS avec cuopt_cli. 85
30 cuopt-numerical-optimization-api-python nvidia/skills Modéliser et résoudre des problèmes LP, MILP et QP avec cuOpt GPU d'NVIDIA. 85
31 cuopt-qp-api-c nvidia/skills Résoudre des problèmes d'optimisation quadratique via l'API C de cuOpt. 85
32 cuopt-qp-api-cli nvidia/skills Résoudre des problèmes d'optimisation quadratique via l'interface CLI cuOpt. 85
33 cuopt-qp-api-python nvidia/skills Résoudre des problèmes d'optimisation quadratique en Python avec cuOpt QP. 85
34 cuopt-routing-api-python nvidia/skills Résoudre des problèmes de routage VRP/TSP/PDP avec l'API Python cuOpt. 85
35 cuopt-server-api-python nvidia/skills Déployer un serveur cuOpt et l'interroger via REST ou Python. 85
36 cuopt-server-common nvidia/skills Soumettre des requêtes d'optimisation routing/LP/MILP à un serveur cuOpt via REST. 85
37 cuopt-user-rules nvidia/skills Optimiser des problèmes de routage et logistique avec cuOpt via des échanges guidés. 85
38 cutile-autotuning nvidia/skills Autotuner des kernels CuTile via recherche exhaustive avec cache et lancement optimisé. 85
39 cutile-python nvidia/skills Écrire, déboguer et optimiser des kernels GPU haute performance avec cuTile Python. 85
40 debug nvidia/skills Exécuter des commandes dans un conteneur Docker depuis l'hôte via relais fichier. 85
41 deploy nvidia/skills Déployer des profils VSS via un workflow compose validé et auditable. 85
42 deployment nvidia/skills Déployer un checkpoint de modèle comme endpoint d'inférence compatible OpenAI. 85
43 evaluation nvidia/skills Générer et exécuter des configurations YAML d'évaluation de modèles LLM via NeMo Evaluator. 85
44 exec-local-compile nvidia/skills Compiler TensorRT-LLM depuis les sources sur un nœud de calcul avec GPU. 85
45 exec-slurm-compile nvidia/skills Compiler TensorRT-LLM sur un cluster SLURM via des conteneurs enroot. 85
46 flashinfer-upgrade nvidia/skills Mettre à jour automatiquement le package flashinfer-python dans TensorRT-LLM. 85
47 improve-cutile-kernel-perf nvidia/skills Optimiser itérativement les performances d'un kernel cuTile via profilage et benchmarking systématiques. 85
48 kernel-cute-writing nvidia/skills Développer des kernels GPU optimisés en Python via JIT compilation CUDA avec CUTLASS. 85
49 kernel-tileir-optimization nvidia/skills Optimiser des kernels Triton existants pour le backend TileIR de Blackwell GPUs. 85
50 kernel-triton-writing nvidia/skills Écrire des kernels Triton corrects, performants et précis pour agents IA. 85