Dra hem en hel sajt med bilder & länkar & allt utan FTP?

Tråden skapades och har fått 3 svar. Det senaste inlägget skrevs .
1
  • Oregistrerad
  • 2006-10-29 19:07

Jag hade för länge sedan ett internet-via-telefonen (som de flesta andra födda innan 1980) hos telia.
För den som inte har delat den här erfarengeten med mig så måste jag så att ingen tror att jag ska göra något dumt bara berätta att man med sin e-post-adress även fick 5 mb hemsideutrymme.
Nu har det gått några år sedan jag avslutade det abbonemanget till fördel för bredband och jag har inte tänkt såmycket på det.
Förrän idag.
Jag har nämligen börjat rensa hårddiskarna från gamla grejer som inte används men som jag vill ha kvar av något skäl. nostalgiska kanske. eller kanske bara för att jag råkar vara en sådan som sparar på precis allt för att jag fått förbannelsen att alltid tänka "det kan komma till nytta nångång & kan därför vara bra att ha".

Hursomhelst så när jag började arkivera gamla projekt som haft hemsidor och grejer så blev (såklart) nyfiken och började kolla runt och faschineras över hur ohyggligt fult o primitiva vissa grejer man gjort var.

Men tillbaka till ämnet. Via lite läkar och grejer så hittade jag plötsligt min gamla Telia-"hemsida" som alltså fortfarande ligger kvar upp på nätet.
alltså påbörjades operation "ladda hem hela paketet!".
Men det var lättare sagt än gjort.
jag lyckades inte logga in med hjälp av ett FTP-program, jag ringde teliasupporten och han var vänlig och sa att det inte gick att logga in längre eftersom varken lösen eller användarnamnet finns kvar och det bara är mer eller mindre "tur" att filerna ligger kvar (och de kommer tas bort så småningom).

Så vad jag gör nu är att jag har ladda hem indexfilen läser den och checkar efter alla länkar och bilder och skriver ner dessa adresser och laddar sedan manuellt hem dessa.
Men det är sååååååå många...

Finns det inte ett program som drar hem en hel sajt, eller är det bara med hjälp av FTP-program och rätt inloggningsuppgifter man kan göra det?

jag har för mig att man kunnat en gång i tiden, men kanske har jag helt fel.

hoppas någon kan komma med en smart o snabb lösning.
det skulle ge mig mycket tid till att prokrastinera med något annat istället.

Tackar!

/Johan

Prova SiteSucker. Programmet söker igenom sidorna länk efter länk och laddar ner allt den hittar. Ange bara den adress programmet ska utgå från.

Börja med att ändra i inställningarna så att programmet bara håller sig till samma server som sajten ligger på. Om du har externa länkar kommer programmet annars att börja ta sig igenom dem också.

  • Medlem
  • Stockholm
  • 2006-10-29 22:40

Du kan testa DeepVacuum också. Gör samma sak.

  • Oregistrerad
  • 2006-10-30 00:05

Tackar!
fast jag var så inne i mitt maskineri att jag faktiskt gjorde alltihopa "manuellt".
Det var ju dumt att ajg inte väntade...
tack iallafall!!!

1
Bevaka tråden