1 votos

Cómo rastrear un sitio web usando wget hasta que se guardan 300 páginas html

Quiero rastrear un sitio web recursivamente usando wget en Ubuntu y detenerlo después de 300 páginas se descargan. Sólo guardo el archivo html de una página. Actualmente, este es el comando que estoy usando:

Quiero que el código cuente de alguna manera los archivos html dentro de LOCAL-DIR y si el contador muestra 300, detenga el rastreo. ¿Hay de todos modos para hacer esto?

1voto

steeldriver Puntos 19092

Podrías intentar algo como esto:

  1. fondo de su comando y grabar su PID ( )
  2. configurar un `` directorio receptor para contar archivos
  3. matar el `` proceso cuando el recuento excede un umbral

Para ilustrar, utilizando una función de shell para simular lo recursivo: ``

EnMiMaquinaFunciona.com

EnMiMaquinaFunciona es una comunidad de administradores de sistemas en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros sysadmin, hacer tus propias preguntas o resolver las de los demás.

Powered by: