Flera billiga webbhotell sköter belastningen?

Tråden skapades och har fått 12 svar. Det senaste inlägget skrevs .
1

Skulle det bli kostnadseffektivt och lönsamt att involvera fler än ett webbhotell och fördela belastningen mellan dessa?

Idag är det billigt med webbhotell så då kanske man kan skapa något typ av kluster eller liknande. Tidigare hade man mirrors för webbsidor, men detta används knappt idag vad jag vet.

Om man får många besökare, ska man öka kapaciteten på ett webbhotell eller kan man köpa ett till istället? Om ett webbhotell slutar fungera kanske man kan ha nån lösning så att man ändå kan se sidan!?

En tanke.

Vad du sparar på webbhotellkostnad spenderar du nog flera gånger om på den ökade administrationskostnaden och webbutvecklingen istället. Det är inte mera Gb/månad som är dyrt - utvecklingstid är det.

Om man har så mycket trafik att man inte klarar sig med ett standardwebbhotell så tycker jag väl att man borde kunna dra in pengar på sidan. Ang. "uptime" så är det värt att lägga nån krona extra på ett bättre webbhotell, speciellt om det rör sig om tada, en sida med lite mer trafik som kan dra in pengar.

  • Oregistrerad
  • 2007-01-29 17:59

ursäkta mitt svar men det var en otroligt korkad lösning.

Det borde finnas mååånga webbhotell där du kan köpa till extra last, alternativt köra en dedikerad server, borde bli mycket billigare och framförallt så fungerar det, till skillnad från förslaget på dig. Så svaret blir: NEJ

Men egentligen, det är inte så jättekrångligt. Iaf så är det rätt lätt ordnat med bilder och dyl. I början utav HTML-filen så slänger man bara in en liten snutt kod som slumpar fram en adress från några fördefinierade. Sen printar man bara ut adressen före alla bildadresser. Mao så kommer alla bilder att hämtas från en slumpvist vald server vid varje sidvisning.

Det sura är att systemet inte blir så stabilt. Går en server ner så kan man bli utan bilderna när som helst. Samt att man måste hålla servrarna i synk manuellt.

På en del webbhotell kan du visserligen logga in över SSH och sätta egna crontabs. På det viset skulle du kunna hålla dem automatiskt synkroniserade.

Hur skulle själva lastbalanseringen fungera i praktiken?

En modern DNS har stöd för Round Robin Load Distribution, vilket helt enkelt är flera A-records för samma domännamn. En modern DNS-server kommer alltså att returnera olika IP-nummer varje gång man frågar den om adressen till något och det betyder att besökare 1 hänvisas till en viss server, besökare 2 till en annan, besökare 3 till en tredje och besökare 4 den första igen.

www.minsajt.se 60 IN A 192.168.0.10
www.minsajt.se 60 IN A 155.28.12.15
www.minsajt.se 60 IN A 68.9.85.91

Detta är en feature i BIND (en vanlig DNS-server) från och med version 4.9, som roterar alla records den har flera av, när den svarar.

Sedan lägger man exakt samma webbplatsfiler på alla olika webbhotell.

Iden är inte helt korkad faktiskt. Inte speciellt instabil heller för om en besökare inte får ett svar från en webbserver är det bara att ladda om sidan och så hamnar man på en annan server. Har man noga koll på sin besöksstatstik och jämn fördelning av besökare ser man ju lätt vilken server som inte svarar så bra.

Det är inte speciellt vanligt att ett webbhotell inte fungerar.

Men denna lösning bygger på att det webbhotell som verkligen hanterar domänen har en DNS där du dels kan registera flera A-records för samma domän och dels att den DNS'en kommer att svara med olika nummer när den blir tillfrågad.

Detta kan fungera väl för statiska siter, men för dynamiska med databaser och liknande kan det bli lite krångligare. Om man inte bestämmer att bara ett ställe har databasen. Även här kan du stöta på patrull då de flesta webbhotell har det så konfigurerat att endast deras egna servrar kan prata med deras egen databas. Ibland kan de ändra på det, ibland är det inget problem alls.

Senast redigerat 2007-01-30 13:26
  • Oregistrerad
  • 2007-01-31 16:14
Ursprungligen av Taz_1999:

En modern DNS har stöd för Round Robin Load Distribution, vilket helt enkelt är flera A-records för samma domännamn. En modern DNS-server kommer alltså att returnera olika IP-nummer varje gång man frågar den om adressen till något och det betyder att besökare 1 hänvisas till en viss server, besökare 2 till en annan, besökare 3 till en tredje och besökare 4 den första igen.

www.minsajt.se 60 IN A 192.168.0.10
www.minsajt.se 60 IN A 155.28.12.15
www.minsajt.se 60 IN A 68.9.85.91

Alla DNS'er har den funktionen så det behöver du inte vara orolig. Däremot är round robin en dålig idé pga:

* DNS Data lagras - Dvs. det är stor sannolik att samma user kommer till samma server
* Round roubin (beroende på hur många servrar man har) kan innebära att man kommer till samma server igen, då det inte är säkert att "slumpen" gör att man kommer till samma server igen, framför allt inte om man kommer från en annan ip (Proxy servrar).

* Session data försvinner om man inte lagrar session data i en annan server (Monterad NFS, Lagarar i databasen)

Har man en mindre sajt så behöver man inte "lastbalansera", har man en ganska stor sajt så är sannolikheten att man kör exemeplvis sessions ganska stor.

Satsa på ett riktigt webbhotell istället för att en lösning som hålls ihop med superlim!

Tack. Alltid kul att lära sig något nytt.
Måste jag testa när tillfälle ges.

  • Medlem
  • Mölndal
  • 2007-01-30 12:50

Om det ska hjälpa att ladda om sidan, måste väl också EXPIRE för domänen sätts till noll sekunder? Normalt cachas ju svaret från DNS-servern för att snabba upp kommande anrop till samma hostname.

Memark - tänkte på det när jag skrev det, du har helt rätt. Det är så att Mac OS X lagrar alla DNS-slagningar den har gjort, tills dess datorn startar om. Om denna lagring är smart nog att titta på expire (dvs hur länge DNS-informationen anses vara aktuell), vet jag alltså inte. (Någon annan får gärna fylla på med mera info här.)

  • Medlem
  • Stockholm
  • 2007-01-31 10:43

Personligen så skulle jag hellre använda cachefly.com eller bygga något eget kring textdrive.com Accelerator Hosting.

1
Bevaka tråden