Web Scraping & Crawling

Extraction de donnees web : crawlers, RSS, Apify, indexation.

9 skills

# Skill Source Description Maj
1 opensea-api projectopensea/opensea-skill Interroger les données NFT et tokens sur les principales blockchains via l'API OpenSea. 35 1j
2 opensea projectopensea/opensea-skill Interroger, trader et swapper des NFT et tokens ERC20 via l'API OpenSea multi-chaînes. 35 5j
3 coingecko elophanto/elophanto Intégrer l'API CoinGecko pour accéder aux données Solana en temps réel. 59 10j
4 autobrowse browserbase/skills Créer et affiner automatiquement des skills de navigation web par itérations successives. 3 184 20j
5 rw-integrate-uploads runwayml/skills Uploader des fichiers locaux vers Runway pour les utiliser comme inputs génératifs. 46 1mo
6 rw-recipe-full-setup runwayml/skills Intégrer l'API Runway dans un projet en guidant chaque étape de configuration. 46 1mo
7 browser browserbase/skills Automatiser les interactions navigateur en local ou via Browserbase avec une CLI dédiée. 3 184 1mo
8 workload-analysis posthog/skills Analyser les dépenses clients par workload et générer des visualisations React interactives. 36 1mo
9 defuddle kepano/obsidian-skills Extraire le contenu lisible et épuré de pages web via Defuddle CLI. 31 034 1mo

À propos de cette sélection

L'outillage de scraping web a longtemps ressemblé à un chantier artisanal : un script Playwright bricolé, un cron qui tombe en silence, des sélecteurs CSS qui rendent l'âme dès qu'un front-end se restructure. Les agents IA changent la donne. Ils ont besoin d'accéder au web de façon fiable, autonome et reproductible, et c'est précisément ce que couvrent les skills web scraping & crawling rassemblés ici. De quoi piloter un navigateur headless pour extraire des données structurées depuis des pages dynamiques, ou brancher un agent sur un moteur de recherche comme Tavily et Brave sans écrire une ligne de parsing. Ces skills s'adressent aux développeurs Python ou TypeScript qui alimentent des pipelines de données, construisent des agents de veille ou enrichissent des datasets pour du fine-tuning. L'écosystème couvre déjà une bonne partie des cas d'usage courants.