Web Scraping & Crawling
Extraction de donnees web : crawlers, RSS, Apify, indexation.
| # | Skill | Source | Description | ||
|---|---|---|---|---|---|
| 1 | defuddle | kepano/obsidian-skills | Extraire le contenu lisible et épuré de pages web via Defuddle CLI. | 31 017 | |
| 2 | autobrowse | browserbase/skills | Créer et affiner automatiquement des skills de navigation web par itérations successives. | 3 184 | |
| 3 | browser | browserbase/skills | Automatiser les interactions navigateur en local ou via Browserbase avec une CLI dédiée. | 3 184 | |
| 4 | coingecko | elophanto/elophanto | Intégrer l'API CoinGecko pour accéder aux données Solana en temps réel. | 59 | |
| 5 | rw-integrate-uploads | runwayml/skills | Uploader des fichiers locaux vers Runway pour les utiliser comme inputs génératifs. | 46 | |
| 6 | rw-recipe-full-setup | runwayml/skills | Intégrer l'API Runway dans un projet en guidant chaque étape de configuration. | 46 | |
| 7 | opensea | projectopensea/opensea-skill | Interroger, trader et swapper des NFT et tokens ERC20 via l'API OpenSea multi-chaînes. | 35 | |
| 8 | opensea-api | projectopensea/opensea-skill | Interroger les données NFT et tokens sur les principales blockchains via l'API OpenSea. | 35 | |
| 9 | workload-analysis | posthog/skills | Analyser les dépenses clients par workload et générer des visualisations React interactives. | 34 |
À propos de cette sélection
L'outillage de scraping web a longtemps ressemblé à un chantier artisanal : un script Playwright bricolé, un cron qui tombe en silence, des sélecteurs CSS qui rendent l'âme dès qu'un front-end se restructure. Les agents IA changent la donne. Ils ont besoin d'accéder au web de façon fiable, autonome et reproductible, et c'est précisément ce que couvrent les skills web scraping & crawling rassemblés ici. De quoi piloter un navigateur headless pour extraire des données structurées depuis des pages dynamiques, ou brancher un agent sur un moteur de recherche comme Tavily et Brave sans écrire une ligne de parsing. Ces skills s'adressent aux développeurs Python ou TypeScript qui alimentent des pipelines de données, construisent des agents de veille ou enrichissent des datasets pour du fine-tuning. L'écosystème couvre déjà une bonne partie des cas d'usage courants.