Pregunta Descargue una página completa jpegs con wget en lugar de solo miniaturas


Cuando intento sacar todos los jpegs de este sitio web (http://www.zodiackillerfacts.com/gallery/) usando wget:

wget -A jpg,jpeg -r http://www.zodiackillerfacts.com/gallery/

solo descarga las miniaturas. ¿Cómo podría descargar los jpegs de tamaño completo usando wget en lugar de recorrer las 1000 imágenes una por una y hacer clic en todas ellas? Estas imágenes están todas en diferentes "álbumes" en el sitio.


2


origen




Respuestas:


Necesitará un script que analice las páginas de la galería y luego use wget. Para este sitio en particular, el script puede ser bastante directo, algo como esto:

#!/bin/bash

wget -qO - "http://www.zodiackillerfacts.com/gallery/" | \
 egrep -o 'thumbnails\.php\?album=[0-9]+' | \
  sort -u | \
    while read gallery
    do
      wget -O "/tmp/$$" "http://www.zodiackillerfacts.com/gallery/$gallery"
      album=$(egrep -m1 -o '<title>[^<]+' /tmp/$$ | \
               sed -e 's/^<title>//' -e 's/[^a-zA-Z0-9 :-()]//g')
      mkdir "$album" || continue
      cd "$album"
      egrep -o 'src="albums/[^"]*' "/tmp/$$" | \
       sed -e 's/thumb_//' \
           -e 's!^src="!http://www.zodiackillerfacts.com/gallery/!' | \
        wget -i -
      cd ..
      rm "/tmp/$$"
    done

Aquí, buscamos el código HTML de la primera página, analizamos los enlaces de la galería, buscamos el HTML para cada galería, creamos un directorio y buscamos todas las imágenes. No es muy bonito ni robusto, pero parece hacer el trabajo.


1