Denna delen av 99 uppdateras inte längre utan har arkiverats inför framtiden som ett museum.
Här kan du läsa mer om varför.
Mac-nyheter hittar du på Macradion.com och forumet hittar du via Applebubblan.

Publicera .webarchive på webservern

Tråden skapades och har fått 5 svar. Det senaste inlägget skrevs .
1
  • Medlem
  • Thailand
  • 2009-01-26 15:57

Har någon ett tips hur jag skall kunna spara ner (t.ex. en tidning) som webarchive eller något annat, publicera den på vårt intranet (via apache?) och få den läsbar för både mac och PC.

Första försöket resulterade i att IE sparar snällt filen (.webarchive) till sin C-disk, men det finns inget sätt att öppna och läsa.

Andra försöket, med Firefox, gav en fil som startade nedladdning av i stort sett samtliga filer från nätet. Vitsen med den interna distributionen hade då försvunnit.

Vi har alltså en förfärligt underdimensionerad internetanslutning här, därav försöken.

Tacksam för förslag.

  • Medlem
  • Bollnäs
  • 2009-01-26 22:26

Enklast måste väl vara att installera Safari på era windowsmaskiner. Paketet av sajten som Safari sparar är inte läsbart av något annat program (vad jag vet), vilket gör att du behöver just Safari för att läsa det.

Annars finns alternativet där ni installerar en cachande proxy.

  • Medlem
  • Thailand
  • 2009-01-27 16:32

Tack för tipset, Kalle!
En cachande proxy var mitt första alternativ. Jag kör Linux/Debian med Squid. Men i accsess.log är det nästan bara TCP.MISS eftersom det numera verkar vara inlagt någon no-cache-funktion på de flesta dynamiska sidorna.

Safari på 96 privatägda windowsmaskiner kommer vi inte fram med, tyvärr. Om alla hade mac vore livet enklare

Just nu testar jag att göra PDF av tidningarna och distribuera via min inbyggda apache-server. Men det kan bara ske temporärt, måste få det att fungera i en annan miljö. Dessutom automatiskt, om möjligt.

Är du bra på squid? Vad tror du om lösning via Firefox?

  • Medlem
  • Bollnäs
  • 2009-01-28 10:50

Det går att spara en sida i Firefox med länkade bilder osv. Kanske kan vara ett alternativ. Den gör om sökvägar till bilder, men länkade javascript bland annat ändras inte. Delar av sajten kommer alltså fortfarande vara i "molnet" med en sån lösning. Men det kanske hjälper tillräckligt för ert behov.

Jag har ingen erfarenhet av Squid, så där kan jag inte hjälpa dig. Jag kör proxy via Apache, men inte med ambitionen att chacha hela sajter.

  • Medlem
  • Lund
  • 2009-01-28 11:14

Jag skulle nog köpa SiteCrawler. Ett billig och bra svenskutvecklat program.

Med det borde du kunna tanka ner hela sidan och publicera en spegel. Ladda hem och testa.

  • Medlem
  • Thailand
  • 2009-01-29 14:39

Tack för tipsen. Jag testar allt eftersom.
Just nu fungerar squid hyfsat bra, men jag skall titta på SiteCrawler också.

1
Bevaka tråden