Uma ferramenta para crawling e análise de sites.
- Extraia o arquivo
- Execute: ./install.sh
web-crawler --url https://exemplo.com --depth 3 --output-dir results
--url: URL inicial para crawling --depth: Profundidade máxima (default: 5) --timeout: Timeout em segundos (default: 1000) --output-dir: Diretório para salvar resultados (default: results)
Buscar formulários de login: web-crawler --url https://exemplo.com --depth 2 --output-dir login_results
Análise completa: web-crawler --url https://exemplo.com --depth 5 --timeout 30 --output-dir full_analysis