0 votos

Obtener el texto de varias páginas web no funciona si una de las URL está caída

He creado un flujo de trabajo simple en Automator que extraerá el texto de una lista de URLs y los guardará en un archivo de texto.

Las acciones son:

  • Obtener el texto especificado
  • Obtener texto de una página web
  • Nuevo archivo de texto

Cada vez que hay un problema con una de las URLs, Automator lanza un error y deja de funcionar - ¿es posible hacer que ignore la URL problemática y continúe?

1voto

slick1537 Puntos 26

La razón es que el "Get Specified Text" no permite retornos (si está poniendo más de una línea de texto).

Para poder solucionar este problema (el mío era similar), encontré un pack de acciones de texto de Automator en línea y lo compré (realmente barato). Puedes encontrarlo aquí:

http://www.automatedworkflows.com

0voto

¿Podría utilizar curl o wget en su lugar?

for u in $(cat urls.txt); do curl -L "$u"; done > output.txt
brew install wget
wget -i urls.txt -U mozilla -O output.txt

AppleAyuda.com

AppleAyuda es una comunidad de usuarios de los productos de Apple en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X