curl
sólo puede leer solo archivos de páginas web, el montón de líneas que tienes es en realidad el índice de directorio (que también se puede ver en su navegador, si usted va a la URL). El uso de curl
y algunos Unix herramientas de la magia para obtener los archivos que usted podría usar algo como
for file in $(curl -s http://www.ime.usp.br/~coelho/mac0122-2013/ep2/esqueleto/ |
grep href |
sed 's/.*href="http://apple.stackexchange.com//' |
sed 's/".*//' |
grep '^[a-zA-Z].*'); do
curl -s -O http://www.ime.usp.br/~coelho/mac0122-2013/ep2/esqueleto/$file
done
que va a obtener todos los archivos en el directorio actual.
Para obtener más elaborado necesidades (incluyendo la obtención de un montón de archivos desde un sitio con carpetas/directorios), wget
(como se propone en otra respuesta ya) es la mejor opción.