Puede utilizar este bash
para la URL real que proporcionó en su comentario .
for i in $(for j in {1..8}; do
curl http://occipital.com/user/01ca-255/george-coghill/$j/;
done \
| sed -n 's,.*/viewer/\(......_flat\)_small\.jpg.*,http://occipital.com/images/viewer/\1.jpg,p'
); do
curl -L -o "${i##*/}" "$i";
done
Siéntase libre de escribir este comando como una sola línea; todos los saltos de línea se añadieron sólo para aumentar la legibilidad. Puede copiarlos o eliminarlos, como quiera.
Lo que hace este código:
- Recorra las 8 páginas de su galería de cuentas
- Extraer los nombres de las imágenes de la vista previa
- Obtenga todas las imágenes de tamaño completo utilizando esta lista de nombres
Si quiere descargar sólo los archivos que no existen, y no sabe el número de páginas de la galería por adelantado, puede ajustar el código a esto:
for i in $(
j=1;
while curl --max-redirs 0 -L -f \
http://occipital.com/user/01ca-255/george-coghill/$((j++))/; do
:;
done \
| sed -n 's,.*/viewer/\(......_flat\)_small\.jpg.*,http://occipital.com/images/viewer/\1.jpg,p'
); do
[[ -f "${i##*/}" ]] || curl -L -o "${i##*/}" "$i";
done
El primer código incrementa ahora el número de página hasta que se produce una redirección o un error. El servidor le redirigirá a la última página existente si intenta visitar una página posterior a las existentes. El [[ -f … ]] ||
parte ejecutará curl
sólo si el archivo correspondiente no existe todavía.
0 votos
No estoy muy familiarizado con curl, ya que acabo de descubrirlo cuando buscaba una manera de realizar esta tarea y curl (o wget) parecía la solución.
0 votos
Ver CURL para descargar un directorio en el Super Usuario.
0 votos
¿Puede añadir algunas URLs específicas (reales) a su pregunta? Tal vez podamos encontrar un patrón allí que sería posible adivinar al usar
curl
.0 votos
@patrix aquí hay una URL real: occipital.com/images/viewer/qSJGuD_flat.jpg - parece que no ofrecen un camino directo que esté ligado al nombre de usuario. Aquí está el enlace a la página de mi cuenta de usuario cuando no estoy conectado: occipital.com/user/01ca-255/george-coghill
0 votos
@Arjan Estoy tratando de descargar sólo las imágenes más nuevas a medida que se publican, no todo el directorio, y no sólo una vez. Tratando de evitar tener que ir a mi cuenta y descargar manualmente cada imagen cada vez que subo nuevas panorámicas.
0 votos
No importa, yo diría que tiene poco que ver con Apple y hay muchos posts relacionados en Super User. (Y la respuesta de Jack es correcta).
0 votos
@Arjan Como ya he dicho, no estoy muy familiarizado con todo esto pero no he podido encontrar nada en Stack Exchange sobre el aspecto de los comodines. Pensaba que curl era una variante de wget exclusiva de Apple. Es todo muy confuso.
0 votos
No es realmente una cuestión de Mac OS X.