6 votos

¿Puedo descargar todas las fotos en una página?

¿Hay alguna forma de ejecutar un script con una determinada página web como argumento que descargará todas las imágenes de allí?

7voto

wget -nd -r -l1 -p -np -A jpg,jpeg,png,svg,gif -e robots=off http://www.apple.com/itunes/
  • -y (sin directorios) descarga todos los archivos al directorio actual
  • -r -l1 (nivel 1 recursivo) descarga páginas enlazadas y recursos en la primera página
  • -p (requisitos de la página) también incluye recursos en las páginas enlazadas
  • -np (sin padre) no sigue los enlaces a los directorios de los padres
  • -A (aceptar) sólo descarga o guarda archivos con las extensiones especificadas
  • -e robots=off ignora el robots.txt y no descarga un robots.txt al directorio actual

Si las imágenes están en un host o subdominio diferente, tienes que añadir -H para abarcar los hosts:

wget -nd -H -p -A jpg,jpeg,png,gif -e robots=off http://example.tumblr.com/page/{1..2}

También puedes usar el rizo:

cd ~/Desktop/; IFS=$'\n'; for u in $(curl -Ls http://example.tumblr.com/page/{1..2} | sed -En 's/.*src="([^"]+\.(jpe?g|png))".*/\1/p' | sort -u); do curl -s "$u" -O; done

-L sigue las cabeceras de localización (redirecciones). -O da salida a los archivos al directorio actual con los mismos nombres.

7voto

Steve Evans Puntos 155

Puedes usar un flujo de trabajo de Automator para descargar imágenes incrustadas en una página web, o imágenes enlazadas desde una página web. Un buen punto de partida para un flujo de trabajo es:

  1. Obtener la página web actual de Safari
  2. Obtener URLs de imágenes de la página web
  3. URLs de descarga

Downloading images from web pages with Automator on Mac OS X 10.8

Puedes cambiar el flujo de trabajo para usar una lista de páginas web de las que obtener.

Automator está incluido con Mac OS X en el Applications > Utilities carpeta.

4voto

pille Puntos 121

Aquí hay una solución de hacky (pero funciona). Espero que alguien pueda encontrar una mejor.

  1. En la Terminal, utilice wget --page-requisites http://example.com/ . Esto descargará la página web de example.com y todos los recursos enlazados desde ella (como imágenes, hojas de estilo y scripts). Más información sobre los requisitos de la página. Nota: Puedes añadir muchas URLs separadas por espacios para descargar muchas de ellas a la vez. Si muchas son del mismo servidor, deberías usar algo como wget --wait=2 para evitar sorber archivos demasiado rápido.

  2. Abre la carpeta en la que descargaste esos archivos y utiliza Spotlight para separar las imágenes de los demás archivos. Voy a asumir que tienes un Lion de la Montaña. Escriba "Imagen" en el campo de búsqueda y seleccione Tipos > Imagen.

0voto

hhh Puntos 1025

Si conoces el patrón de la url, podrías usar la solución *ix con Curl: ¿Usar el rizo para descargar imágenes del sitio web usando un comodín?

0voto

umassthrower Puntos 168

Echa un vistazo al espacio de los automovilistas en MyAppleSpace http://www.myapplespace.com/pages/view/14664/automator-script-librería

AppleAyuda.com

AppleAyuda es una comunidad de usuarios de los productos de Apple en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X