Pipelines de données

Orchestration et transformation de donnees : Airflow, dbt, Astronomer, ETL et ELT.

4 skills

# Skill Source Description Δ
1 clickhouse-js-node-troubleshooting clickhouse/agent-skills Diagnostiquer et résoudre les problèmes courants du client Node.js ClickHouse. 425 8
2 portable-text-conversion sanity-io/agent-toolkit Convertir du HTML ou Markdown en blocs Portable Text compatibles Sanity. 134 3
3 trigger-realtime triggerdotdev/skills Suivre en temps réel les tâches d'agents IA depuis le frontend avec React. 26 1
4 tinybird-typescript-sdk-guidelines tinybirdco/tinybird-agent-skills Définir et déployer des ressources Tinybird typées en TypeScript avec inférence complète. 16 0

À propos de cette sélection

L'orchestration de données a longtemps reposé sur des scripts fragiles qu'on ne touchait plus par peur de tout casser. Des acteurs comme Astronomer et dbt Labs ont depuis industrialisé la discipline : DAGs versionnés, transformations testables, lignage de bout en bout. Les skills pipelines de données rassemblés ici couvrent des cas concrets, auditer un pipeline BigQuery pour détecter des dérives de coût ou de fraîcheur, modéliser un dataset pour l'exposer proprement à une couche BI sans multiplier les joins à la main. L'outillage disponible est solide, majoritairement Python, et couvre le spectre du prototypage local au déploiement en production supervisé. Ça parle autant aux data engineers qu'aux ML engineers qui branchent des flux en amont de leurs modèles.