Denna delen av 99 uppdateras inte längre utan har arkiverats inför framtiden som ett museum.
Här kan du läsa mer om varför.
Mac-nyheter hittar du på Macradion.com och forumet hittar du via Applebubblan.

SATA RAID-5 slutar fungera 2009

Tråden skapades och har fått 11 svar. Det senaste inlägget skrevs .
1

Robin Harris är en riktigt tung bloggare inom lagringslösningar. Hans blog http://storagemojo.com/ innehåller mycket matnyttigt för den som är intresserad.

Hursomhelst har Harris kommit fram till att 2009 är SATA diskarna så stora att RAID-5 knappast kommer vara möjligt att använda längre. Varför? Chansen för läsfel på SATA diskar är pytteliten men med 7st 2TB diskar så är antalet bitar så många att förhållandet blir 1:1. Och med läsfel kan du inte återskapa en RAID-5 volym om en hårddisk kraschar...

"SATA drives are commonly specified with an unrecoverable read error rate (URE) of 10^14. Which means that once every 100,000,000,000,000 bits, the disk will very politely tell you that, so sorry, but I really, truly can’t read that sector back to you.

One hundred trillion bits is about 12 terabytes. Sound like a lot? Not in 2009.

Disk drive capacities double every 18-24 months. We have 1 TB drives now, and in 2009 we’ll have 2 TB drives.

With a 7 drive RAID 5 disk failure, you’ll have 6 remaining 2 TB drives. As the RAID controller is busily reading through those 6 disks to reconstruct the data from the failed drive, it is almost certain it will see an URE.

So the read fails. And when that happens, you are one unhappy camper. The message “we can’t read this RAID volume” travels up the chain of command until an error message is presented on the screen. 12 TB of your carefully protected - you thought! - data is gone. Oh, you didn’t back it up to tape? Bummer!"

http://blogs.zdnet.com/storage/?p=162

  • Medlem
  • Malmö
  • 2007-07-24 13:49

Väldigt intressant artikel/blogg du förmedlar i denna tråd.

Ja, Hitachi har ju 1TB-diskar. Och möjlighet till Raid-konfigurationer gör ju att man kan ha flera TB tillgängligt. Ja, utvecklingen går ju snabbt framåt. Och med teknikutveckling, kommer även högre krav på prestanda. Dock undrar jag i vilket sammanhang behöver man flera TB? Hur mycket lagringsutrymme kan man få till med dagens resurser?

  • Medlem
  • Sundsvall
  • 2007-07-24 14:27
Ursprungligen av Reisan:

Väldigt intressant artikel/blogg du förmedlar i denna tråd.
Dock undrar jag i vilket sammanhang behöver man flera TB? Hur mycket lagringsutrymme kan man få till med dagens resurser?

Inom Video eller Foto(RAW) så behövs stora mängder utrymme.

  • Medlem
  • Malmö
  • 2007-07-24 14:33
Ursprungligen av Sidde:

Inom Video eller Foto(RAW) så behövs stora mängder utrymme.

Ok, det kan jag tänka mig. Men vågar man verkligen ha flera TB med färdigt eller/och arbetsmaterial?

  • Medlem
  • Uppsala
  • 2007-07-24 15:38

ZFS innebär väl en fördel här, eftersom det använder kontrollsiffror så bör det upptäcka såna fel innan RAID:en brakar och man måste återuppbygga den?

Om jag har förstått rätt så kontrollerar den och återuppbygger skadad data på nya sektorer helt dynamiskt så fort man vill läsa det.

  • Medlem
  • Göteborg
  • 2007-07-24 20:53

Jag tror att ZFS kan justera fel i filsystemet men förmodligen inte göra något åt fel på läshuvud eller liknande mekaniska fel som jag antar SATA-standarden gäller.

Om inte flashminnen får en enorm tillväxt och utvecklas så att de passerar hårddiskar i pris/prestanda Jag vet att det låter långsökt, men vem vet helt säkert?

helst vill jag se mer utveckling inom hologramlagring

  • Medlem
  • Hemmesdynge
  • 2007-07-25 01:10

Fast, vänta nu, det innebär ju att det blir ett "hårt" fel, vart 12:e TB. Tar ju inte _så_ lång tid att läsa 12TB från en disk.
Min mac mini har läst 100GB från disken på 2 veckor. 1TB på 20 veckor, alltså skulle jag uppleva ett hårt fel inom 4,5 år. Och det är ju en väldigt lågaktiv dator.
Om man tittar på en server med lite last tror jag inte det är några problem att komma upp i 100GB på en dag. I så fall skulle ju ett hårt fel inträffa inom 4 månader.
I många fall inträffar nog hårda fall betydligt senare än så. Dessutom finns ju faktiskt logik på diskarna som upptäcker kassa sektorer vid skrivning och mappar ut dem ur tillgängliga sektorer. Men visst, om man lämnar en disk liggande länge, eller inte byter filer på den så kan man nog råka mer illa ut.

Det provokativa med rubriken är ju att det till synes funkade superbra med RAID-5 sista dagen år 2008... Näe, sanolikheten att få läsfel ökar (så klart) om vi läser och skriver större datamängder utan att vi förbättrar kvalitetetn. Men, det är ju ett sakta ökande fenomen, dvs helt olikt t ex millenieproblematiken.

Hursom. En sak som talar för att detta inte är ett så stort problem är att vi numera skriver och läser mycket mera data som _inte_ är så konstineskänsligt. T ex för maskinkod (program) är det helt förödande om en etta blir en nolla. Då krashar sannolikt programmet, men det som i allmänhet nu lagras på gigantiska diskar är inte progar, utan data av typen lossy-komprimerad film eller musik. I dessa fall är det inte längre en katastrof om en en etta blir en nolla. Det handlar bara om att dom överligande systemen (RAID-kontroller-programvara, drivrutiner och OS och annat) hanterar felet på ett rimligt sätt. Jag skulle t ex _inte_ vilja att mitt RAID-set gick sönder om återställandet av 2TB data fick läsfel på en bit...

Drobo

Då får vi hoppas att en Drobo löser det problemet.
Jag beställer en i augusti.

www.drobo.com

  • Medlem
  • Huddinge
  • 2007-07-26 03:37

Priset är ju lite väl saftigt. Som en halv MacBook (i USA!!).

Både rätt och fel

En intressant artikel men allt är inte helt rätt. Till och börja med så är det inte ett SATA problem utan gäller även andra disktyper som har samma URE (10^14).

Att problemet skulle dyka upp först när en disk blir 2GB stor och den totala Raiden uppgår till 12GB är fel i sig. Om vi sätter ihop en Raid-5 med 1GB diskar där storleken blir 12GB (13 diskar) så får vi samma fenomen.

Ett sätt att minska riskerna är att köra Raid-6/ADG vilket innebär att två diskar används för paritet.

Men redan från början ska man ha klart för sig att SATA aldrig var tänkt som en "mission critical technology". Tekniken var tänkt för desktop och enklare servrar där billig lagring var ett krav. Jämför vi priserna på SATA mot SCSI, S-SCSI eller Fibrechannel så förstår man ganska snart vilken disktyp som har minst tillförlitlig teknik. I de fall som SATA används är det oftast i arkiveringslösningar eller som mellanlagring vid säkerhetskopiering.

De lösningar jag själv satt upp med många och stora SATA diskar har antingen använt RAID-6/ADG. Eller en kombination av RAID-5 och RAID-1. I korthet flera speglade diskar (RAID-1) som sedan körs i RAID-5.

Förebyggande felsökning görs av alla seriösa RAID kontrollerkort. Det körs regelbundet avläsningar av diskytorna och eventuella dåliga block/sektorer mappas om redan när dom uppstår som RE (recoverable read error). Även diskarnas interna kontroll kommer att hitta detta och mappa om dåliga block/sektorer

/Utopiazz

1
Bevaka tråden