Estoy tratando de encontrar una manera de descargar una URL y convertirla en un PDF.
He encontrado muchas sugerencias sobre cómo convertir PDFs en HTML o HTML en PDFs, pero eso no es lo mismo que lo que quiero hacer.
Básicamente estoy buscando el mismo resultado que si hubiera abierto la página en {insertar navegador de elección} y seleccionado "Imprimir" y luego PDF " Guardar como PDF
Pero quiero poder hacerlo todo desde el Terminal, de forma automática, para poder alimentar un puñado de URLs a la vez y que lo haga todo por mí.
No necesito ni quiero la recursión a páginas adicionales.
[Nota: He intentado
wget --page-requisites --convert-links
pero no siempre obtiene las imágenes que se cargan desde un servidor remoto. Además, se supone que las URLs no están detrás de ningún tipo de requisito de acceso].