<!-- SPDX-FileCopyrightText: Copyright (c) 2026 NVIDIA CORPORATION & AFFILIATES. All rights reserved. --> <!-- SPDX-License-Identifier: Apache-2.0 -->
Configurer un Sous-Agent Spécialisé
OpenClaw documente le comportement des sous-agents, l'outil sessions_spawn, la configuration agents.list, la politique d'outils, l'imbrication et le modèle d'auth dans Sub-Agents.
Utilisez cette page comme source de vérité pour comprendre le fonctionnement des sous-agents OpenClaw.
Cette page NemoClaw couvre les éléments spécifiques au sandbox : où vit la config OpenClaw, où placer les identifiants par agent, quel chemin d'espace de travail inscriptible les agents doivent utiliser, et comment la démo Omni VLM se mappe sur ces chemins.
Étape 1 : Chemins du Sandbox NemoClaw
NemoClaw exécute OpenClaw à l'intérieur d'un sandbox OpenShell. Lors de l'adaptation d'une configuration de sous-agent OpenClaw, utilisez ces chemins à l'intérieur du sandbox :
| Chemin | Objectif |
|---|---|
/sandbox/.openclaw/openclaw.json |
Config OpenClaw, incluant models.providers, agents.defaults, et agents.list. |
/sandbox/.openclaw/.config-hash |
Hash pour openclaw.json. Gardez-le synchronisé après les modifications manuelles de config ; il devient une ancre de confiance appliquée au démarrage uniquement après que shields up le verrouille en lecture seule avec propriété root. |
/sandbox/.openclaw/agents/<agent-id>/agent/auth-profiles.json |
Identifiants de fournisseur par agent. Utilisez-les quand un sous-agent appelle directement un fournisseur auxiliaire. |
/sandbox/.openclaw/workspace/ |
Chemin d'espace de travail partagé inscriptible pour les fichiers que l'agent principal transmet au sous-agent. |
/tmp/gateway.log |
Log de la passerelle OpenClaw. Utilisez-le pour confirmer les rechargements de config et diagnostiquer les défaillances de sous-agent. |
Pour les tâches basées sur des fichiers, demandez aux agents d'utiliser /sandbox/.openclaw/workspace/.
Évitez de vous fier aux chemins hérités .openclaw-data ou aux chemins OpenClaw en lecture seule dans les instructions de délégation.
Étape 2 : Exemple de Sous-Agent Vision Omni
Le vlm-demo applique le motif de sous-agent OpenClaw à une tâche de vision.
Il maintient l'agent principal main sur la route d'inférence NemoClaw standard et ajoute un sous-agent vision-operator alimenté par un modèle de vision Omni.
| Champ OpenClaw | Valeur d'exemple Omni |
|---|---|
| Agent principal | main |
| Modèle principal | inference/nvidia/nemotron-3-super-120b-a12b |
| Fournisseur auxiliaire | nvidia-omni |
| Sous-agent | vision-operator |
| Modèle du sous-agent | nvidia-omni/private/nvidia/nemotron-3-nano-omni-reasoning-30b-a3b |
| Outil de délégation | sessions_spawn |
Omni est utilisé comme modèle spécialisé pour les tâches d'image. Le modèle d'orchestration principal reste responsable de la conversation, de la planification et de la décision de délégation.
Étape 3 : Mettre à Jour la Config du Sandbox
Récupérez la config OpenClaw actuelle du sandbox, appliquez-y vos changements de fournisseur auxiliaire et de agents.list, puis rechargez-la.
$ export SANDBOX=my-assistant
$ export DOCKER_CTR=openshell-cluster-nemoclaw
$ docker exec "$DOCKER_CTR" kubectl exec -n openshell "$SANDBOX" -c agent -- cat /sandbox/.openclaw/openclaw.json > /tmp/openclaw.json
Créez /tmp/openclaw.updated.json avec la config de sous-agent OpenClaw.
Pour l'exemple Omni, la démo fournit vlm-demo/vlm-subagent/openclaw-patch.py.
Téléchargez la config patchée et actualisez le hash.
Dans l'état mutable par défaut, cela garde le hash local cohérent mais ne le rend pas à l'épreuve des modifications ; lancez nemoclaw <name> shields up après si le sandbox doit appliquer l'intégrité de config au démarrage.
$ docker exec "$DOCKER_CTR" kubectl exec -n openshell "$SANDBOX" -c agent -- chmod 644 /sandbox/.openclaw/openclaw.json
$ docker exec "$DOCKER_CTR" kubectl exec -n openshell "$SANDBOX" -c agent -- chmod 644 /sandbox/.openclaw/.config-hash
$ cat /tmp/openclaw.updated.json | docker exec -i "$DOCKER_CTR" kubectl exec -i -n openshell "$SANDBOX" -c agent -- sh -c 'cat > /sandbox/.openclaw/openclaw.json'
$ docker exec "$DOCKER_CTR" kubectl exec -n openshell "$SANDBOX" -c agent -- /bin/bash -c "cd /sandbox/.openclaw && sha256sum openclaw.json > .config-hash"
$ docker exec "$DOCKER_CTR" kubectl exec -n openshell "$SANDBOX" -c agent -- chmod 444 /sandbox/.openclaw/openclaw.json
$ docker exec "$DOCKER_CTR" kubectl exec -n openshell "$SANDBOX" -c agent -- chmod 444 /sandbox/.openclaw/.config-hash
Vérifiez /tmp/gateway.log après le téléchargement et confirmez que la passerelle a rechargé à chaud le changement de fournisseur ou de agents.list.
Étape 4 : Ajouter les Identifiants du Sous-Agent
Si le modèle auxiliaire utilise une clé de fournisseur en dehors de la route d'inférence NemoClaw standard, mettez cette clé dans le profil d'auth du sous-agent. Pour l'exemple Omni :
/sandbox/.openclaw/agents/vision-operator/agent/auth-profiles.json
Utilisez le même ID de fournisseur qui apparaît dans models.providers, tel que nvidia-omni.
Après avoir téléchargé le profil d'auth, assurez-vous que le répertoire du sous-agent est la propriété de l'utilisateur du sandbox :
$ docker exec "$DOCKER_CTR" kubectl exec -n openshell "$SANDBOX" -c agent -- chown -R sandbox:sandbox /sandbox/.openclaw/agents/vision-operator
Étape 5 : Autoriser l'Egress du Fournisseur Auxiliaire
Si le sous-agent appelle un fournisseur directement, mettez à jour la politique réseau OpenShell pour le binaire qui effectue la requête.
Dans la démo Omni, la passerelle OpenClaw s'exécute en tant que /usr/local/bin/node, la politique de endpoint NVIDIA doit donc permettre ce binaire.
Consultez Customize the Network Policy (utilisez la skill nemoclaw-user-manage-policy) pour les workflows de mise à jour de politique.
Étape 6 : Ajouter les Instructions de Délégation
OpenClaw gère sessions_spawn, mais l'agent principal a toujours besoin d'instructions de tâche.
Placez ces instructions dans l'espace de travail inscriptible, par exemple :
/sandbox/.openclaw/workspace/TOOLS.md
La démo Omni inclut vlm-demo/vlm-subagent/TOOLS.md, qui indique à main de déléguer les tâches d'image à vision-operator et au sous-agent de lire le chemin d'image qu'il reçoit.
Adaptez ce fichier pour d'autres modèles spécialisés.
Étape 7 : Ressources de Démo
Utilisez le repo vlm-demo pour les ressources d'exemple Omni exécutables :
vlm-subagent-guide.mdpour une procédure pas à pas commande par commande.vlm-subagent/openclaw-patch.pypour patcheropenclaw.json.vlm-subagent/auth-profiles.template.jsonpour le profil d'auth du sous-agent.vlm-subagent/TOOLS.mdpour les instructions de délégation.
Références
- Charger references/switch-inference-providers.md lors du changement de fournisseurs d'inférence, de l'évolution du runtime du modèle ou de la reconfiguration du routage d'inférence. Change le modèle d'inférence actif sans redémarrer le sandbox.
- Charger references/use-local-inference.md lors de la configuration d'Ollama, vLLM, TensorRT-LLM, NIM, ou tout serveur de modèle local compatible OpenAI avec NemoClaw. Connecte NemoClaw à un serveur d'inférence local.
- Charger references/inference-options.md pour expliquer quels fournisseurs sont disponibles, ce que l'assistant d'embarquement présente, ou comment le routage d'inférence fonctionne. Énumère tous les fournisseurs d'inférence proposés lors de l'embarquement NemoClaw.
Skills Associées
- Consultez OpenClaw Sub-Agents pour
sessions_spawn,agents.list, l'imbrication, la politique d'outils et le comportement d'auth. nemoclaw-user-workspace— Consultez Workspace Files (utilisez la skillnemoclaw-user-workspace) pour comprendre les répertoires d'espace de travail par agent