Ladda ner sajt för offlinebruk

Tråden skapades och har fått 11 svar. Det senaste inlägget skrevs .
1
  • Oregistrerad
  • 2004-04-02 07:35

Finns det något sätt för mig att ladda ner delar av till exempel mac.com för att kunna läsa sidorna när jag är offline? Komplett med bilder, filmer osv...

Exempelvis delen om iMovie-träningen:
http://www.mac.com/WebObjects/Tools.woa/13/wa/Content/im_index.html

Har testat Sitesucker, men den verkar gå bet på inloggningen. Någon som vet om det går?

/Pierre

Det går ju ladda ner en hemsida med explorer. Det ska fungera att ladda ner med golive cs oxå... Vet ej hur, men på nåt sätt kunde man det...

  • Oregistrerad
  • 2004-04-02 09:21

Jo, att spara en enskild sida klarar ju de flesta webbläsare, men om man vill ha med alla länkade sidor (säg ner till fyra nivåer eller så)?

/P

Det klarar explorer av...

arkiv > spara som > webbarkiv > alternativ...

Där kan du välja vad du vill ta hem och hur många nivåer ner du vill hämta...

Lycka till...

  • Oregistrerad
  • 2004-04-02 09:31

Det hade jag ingen aaaaning om... ska genast testa!

Tack!

/P

  • Medlem
  • Karlstad
  • 2004-04-02 10:27

Man ska inte behöva skita ner sig genom att använda MS-produkter i onödan när det finns bättre.
Ta ner DeepVacuum, gratis. Klockren:
http://www.hexcat.com/deepvacuum/index.html

  • Medlem
  • Hammarö
  • 2004-04-02 10:30

Använda Pagesucker istället. Mycket kompetent program som suger ner allt från en sajt. Finns till Mac och Windows.

  • Oregistrerad
  • 2004-04-02 10:34

OK, tack. Har testat Sitesucker som sagt, men det funkar inte tillsammans med .mac och inloggningen där. Håller på att testa Explorer-alternativet nu, men verkar få en massa felmeddelanden också där. Ska testa Pagesucker och DeepVacum så snart jag hinner. Någon som vet om de funkar med .mac och lösenordsskydd?

/P

  • Medlem
  • Helsingborg, Sweden, Sweden
  • 2004-04-02 10:45

Jag använder WebDevil.
Fast den kostar ju... US$35.

/Bosse

  • Medlem
  • Karlstad
  • 2004-04-02 11:21
Ursprungligen av Pierre Andersson:

OK, tack. Har testat Sitesucker som sagt, men det funkar inte tillsammans med .mac och inloggningen där. Håller på att testa Explorer-alternativet nu, men verkar få en massa felmeddelanden också där. Ska testa Pagesucker och DeepVacum så snart jag hinner. Någon som vet om de funkar med .mac och lösenordsskydd?

/P

Det är en personlig fråga förstås. Men jag har PageSucker åxå. Visserligen bra, men startar väldigt längsamt och större program. När DeepVacuum kom bytte jag direkt: Brutalt snabb, liten applikation och använder sig faktiskt av Macen's inbyggda unix-funktioner.

Testade åxå med Explorer ett par gånger men fick liksom aldrig till det (förutom att det kändes allmänt olustigt att ens fibbla med programmet).

  • Medlem
  • Gotland / Åre
  • 2004-04-02 23:45

Har du någon server att logga in på med SSH kan du via Terminalen köra detta kommando:

wget -r www.domännamn.com

Då drar du ner HELA sajten med länkar, bilder, scripter, funktioner etc. till servern du är inloggad på. Sen är det bara att föra över sajten lokalt till din dator varpå du kan ta del av rubbet även om du är offline.

wget är otroligt kraftfullt, men man bör läsa på alla alternativ man kan ställa in.

1
Bevaka tråden