Ladda hem många bilder från URL-lista

Tråden skapades och har fått 5 svar. Det senaste inlägget skrevs .
1

Hej!

Jag har en Excel-fil med URL-adresser till många bilder, 1 URL-adress i varje kolumn.
Jag skulle vilja göra en spara ner alla dessa bilder till min dator, utan att behöva öppna varje länk och spara bilden manuellt.

Är det någon här som vet någon lösning på detta?

Nedan förutsätter att du kan navigera runt lite i Terminalen.

Exportera som en textfil med en URL på varje rad (du kanske får kopiera och klistra in i ett textdokument). Se till att spara filen som en vanlig textfil och inte RTF eller något annat bös.
I terminalen kan man sen köra "cat DINTEXTFIL | xargs -n1 curl -O"

Då borde du få nedladdat alla filerna till den katalogen som du kör kommandot från.

Tack för svaret! Suveränt!
Jag har lyckats ordna en textfil med en URL på varje rad men det verkar som om kommandot inte gillar radbrytningar.
Jag provade med en lista på 10 artiklar, men endast den sista bilden laddas hem.
"Illegal characters found in URL" får jag på resten av filerna.
Jag misstänker att det har med radbrytningen att göra, eftersom alla rader förutom den sista har en radbrytning.
Filnamnen heter t.ex. 30880000-origpic-9e6e2b.jpg så det har inget med att det är konstiga tecken i filnamnen.
Något tips på hur jag kan kringgå detta?

Du har sannolik Mac-radbrytningar (ASCII 13) men terminal kräver unix-radbrytningar (ASCII 10)

Firefoxtillägget Downloadthemall kan ta emot en textfil och ladda ner dessa.
Öppna dess fönster från Verktygsmenyn och högerklicka mitt i det, där finns nåt val för att öppna en fil. Standard är XML, så du får välja "alla filer".

Tack reboot81. Funkade utmärkt.
Problemet löst!

1
Bevaka tråden