Denna delen av 99 uppdateras inte längre utan har arkiverats inför framtiden som ett museum.
Här kan du läsa mer om varför.
Mac-nyheter hittar du på Macradion.com och forumet hittar du via Applebubblan.

Apple uppdaterar äntligen Mac Pro

Tråden skapades och har fått 110 svar. Det senaste inlägget skrevs .
  • Oregistrerad
  • 2010-08-03 01:18
Ursprungligen av Zimmerman:

1,6 GHz för 6000 spänn är ju ett bra pris! Procentuellt alltså. För ett proffs som t.ex. proddar 3D är det ju taget direkt. Inget att snacka om. Det är ju en enorm prestandahöjning.

Hur kan du veta att du får en så hög procentuell prestandaökning då ingen i hela världen kört en sådan processor under osx ännu?

Det vet jag ju inte. Men... 1,6 GHz! Föreställ dig att det kom en iMac som gick från 3 till 4,6 GHz Snacka om rusning.

Ursprungligen av studiox:

Hur kan du veta att du får en så hög procentuell prestandaökning då ingen i hela världen kört en sådan processor under osx ännu?

Ursprungligen av studiox:

Nej, det spelar ingen roll då det inte finns något program som kan dra nytta av 24 virtuella cores. Vad ska du använda datorn till eftersom det är ett så stort problem att du inte kan stoppa i en 3.3G prop?

Jag har både byggt och kört program som dragit nytta av över tusentalet äkta kärnor. Missar jag poängen eller menar du att det inte finns program som kan dra nytta av en bråkdel av det?

  • Oregistrerad
  • 2010-08-03 01:19
Ursprungligen av Marcus K:

Jag har både byggt och kört program som dragit nytta av över tusentalet äkta kärnor. Missar jag poängen eller menar du att det inte finns program som kan dra nytta av en bråkdel av det?

Nu får du allt berätta lite mer.

Ursprungligen av studiox:

Nu får du allt berätta lite mer.

Jag tror han syftar på att man kan koda och kompilera för ett godtyckligt antal processorkärnor i samma burk eller över ett nätverk. Detta är vanligt för beräkningsintensiva specialicerade tillämpningar men mindre vanligt för välkända breda program (med GUI och annat lulllull). Jag antar att det var den senare kategorin som du tänkte på.

Automatisk parallellisering av kod är svårt, särskilt vid kompileringen. Jag tror att det är vanligast att de som skriver program för massor av processorer använder sig istället av språk och APIn speciellt avsedda för detta eller verktyg som t.ex. Parallel Computing Toolkit för Mathematica.

Det lär iofs gå att skriva multiprocessoranpassade program med hjälp av Cocoa men många av de tunga programmen har i väl mycket Carbonkod kvar (från den tiden då det var klockfrekvens snarare än antal kärnor som gällde).

Hur som helst tycker jag inte att bristen på program som klarar att utnyttja 24 kärnor är ett argument mot att uppgradera. De outnyttjade kärnorna kommer väl till pass om man kör flera program samtidigt. Jag tycker att min 8-kärniga MP är värt priset trots låg klockfrekvens och att jag inte kör program som utnyttjar alla kärnor. När badbollen dyker upp i ett program kan jag jobba på i andra program som vanligt. Det funkar inte på långa vägar lika bra på min MBP.

Ursprungligen av x-per:

Teoretiskt sett borde man kunna ta singel cpu 6 kärniga som borde ha Xeon x5680 och stoppa in 2st i dual cpu Mac Pron?

Visst, kanske använder någon annan Xeon på 3.33ghz men som sagt, undra om 2st x5680 kommer bli möjligt

Modellerna av Mac Pro med bara en processor har antagligen klenare nät-agg.
Det kan även vara så att det bara finns plats för en processor, har för mig att det har varit så innan på 2008'an (?).

Det ser dessutom ut som om processorerna sitter på samma löstagbara platta som minnena. Jag tycket det ser ut så, vad är kylfläns-paketet på den svartvita bilden jämfört med färgfotot den bilden ligger över? Kolla bilden här:
Apple - Mac Pro - An easy-access interior makes expansion a snap.

I så fall kräver det att man bygger ut en med två processorer från början, vilket inte gör det lika intressant, inte ur kostnadsperspektiv iallfall.

  • Medlem
  • Stockholm
  • 2010-08-02 19:07

Benchmark Results: CS4 And Introducing Adobe's CS5 Suite : Intel Xeon 5600-Series: Can Your PC Use 24 Processors?

Ovan är förvisso inget test av Apple-hårdvara under OSX men det ger en fingervisning hur bra olika CPU:er presterar i dagsläget. Jag skulle säga testet brister LITE i mängden RAM man hade i maskinen (12GB RAM för en 24-core maskin är minimalt, speciellt om man har program som skalar med flera processer). Jag skulle också säga Apples "tak" på 32GB RAM är lite lite. Ändå intressant läsning och den stora vinnare är inte helt oväntat 3D-renderingsapplikationer.

Ovan tycker jag också bevisar att Apple borde ha en Core i7-baserad arbetsstation. Den är ofantligt mycket bättre pris / prestanda när man kan leva med en 4-6 core maskin kontra en Xeon-baserad maskin.

Den som sa Xeon bara är för servrar tror jag missat något. Ska man ha en större "arbetsstation" är det Xeon som gäller, se ex. HP's Z800-series. Core-serien processorer skalar inte högre än 6-cores tror jag inte i dagsläget och i vart fall tidigare har generellt Core-serien varit mer begränsad i mängden RAM de kan hantera (detta kan mycket väl helt vara ett val av moderkortstillverkare kontra en begränsning i CPU:n).

Men jag tror föga på några större ändringar i ovan. Apple har sitt fokus på plattor och telefoner primärt nu - trotts det växer deras CPU-försäljning vilket kanske är lite förvånande men ja, det är som alltid man inte kan få allt man vill ha

Än så länge är ju ALLA burkar - t.o.m. en som i denna tråd spekulerad 2x3,33 GHz'arew - slöa maskiner. Alla som proddar 3D och 1080p-video vet vad jag talar om. En dator KAN inte vara för snabb. Även med dagens monstermaskiner så är det en h-e massa renderande innan tajmlajnen flyter fint och i rätt hastighet. Ge mig en 2x33,3 GHz'are och jag ska få den att storkna på nolltid - jag bara öppnar Motion - ett 1080p-projekt så klart (vad ska man annars jobba med? PAL?:-D) - och pillar ihop en snygg 3D-grafik. Inget märkvärdigt. Det måste garanterat renderas en stund före man kan lira det i realtid.
För dom som proddar i riktiga 3D-program - Combustion, Shake, Cinema 4D, etc, etc - så är det ännu värre. Så - att folk önskar t.ex. en 2x3,33 GHz är helt logiskt och sunt. Alternativen är feta renderingskluster (Linux) och DET är dyrt. För en 3D-artist med jobb är ju inte 100 000 kr någonting att snacka om. Jisses - dom som har åkeri t.ex. köper ju in traktorer för en mille styck. hela tiden. Datorer är billiga - otroligt billiga verktyg. Många andra brancher med andra maskiner (föreställ er vad t.ex. sjukvårdsmaskiner kostar kan bara drömma om att kunna driva verksamhet med så otroligt billiga maskiner som datorer är.

  • Oregistrerad
  • 2010-08-03 01:23
Ursprungligen av Zimmerman:

Än så länge är ju ALLA burkar - t.o.m. en som i denna tråd spekulerad 2x3,33 GHz'arew - slöa maskiner. Alla som proddar 3D och 1080p-video vet vad jag talar om. En dator KAN inte vara för snabb.

Vi vet att du har obegränsat med budget och visst kan lägga ett par miljoner på en dator utan att det påverkar din eller ditt företags budget..

Alla vet också att dom som renderar professionellt inte direkt kör det på sin workstation (möjligtvis för preview eller post-rendering) utan låter, precis som du säger billiga linux kluster ta över. Servrar är gratis idag tack vare dell och andra tillverkare.

För övrigt, när man renderar på klienten så är det GPUn som gör mest jobb - varför sitter det annars Matrox eller ATI FirePro kort i workstations.

Vi kommer nog inte längre här.

Jag har bara 40 000 och det ska räcka till mera än bara en ny CPU. Var du fått något annat ifrån är ett mysterium. Skumt.

Ursprungligen av studiox:

Vi vet att du har obegränsat med budget och visst kan lägga ett par miljoner på en dator utan att det påverkar din eller ditt företags budget..

  • Medlem
  • International user
  • 2010-08-03 09:39
Ursprungligen av studiox:

För övrigt, när man renderar på klienten så är det GPUn som gör mest jobb - varför sitter det annars Matrox eller ATI FirePro kort i workstations.

Matrox kort har man oftast när man behöver betydligt fler monitorer. Finns inga bättre kort för det på marknaden. Men "krämen" i kortet får lida av det.
Ny FireGL serien är ati's motsvarighet till nvidia Quadro. Men än så länge finns det inte så många 3d appar som faktist utnyttjar gpgpu (rendera med grafikkortet) "95%" fortfarande baserat på cpu. Finns dock program som Bunkspeed (realtidsrenderare) som kan utnyttja monstrena på grafikkorten. Fler o fler tillverkare av 3d paket börjar implementera stödet, och 3:e parts renderare har börjat släppas som har stöden. Däremot så renderar den viewportsen betydligt bättre än sina mindre kusiner. Bättre AA etc.

Angående mängd ram så har jag fått för mig att nån riktig datamupp en gång förklara för mig att 2gb per kärna är vad man ska sikta in sig på. Så för 12'an är 24 "bra" trots att den har HT. Men den informationen är c:a 6 år gammal så det kanske har hänt nått på den fronten...

  • Oregistrerad
  • 2010-08-03 15:25
Ursprungligen av Kenneth M:

Angående mängd ram så har jag fått för mig att nån riktig datamupp en gång förklara för mig att 2gb per kärna är vad man ska sikta in sig på.

Det var nog det dummaste jag läst på länge - måste varit en mupp som sagt

Naturligtvis vill du att jobbet en processor ska utföra ska få plats i ram. Om du sitter med 2 word dokument öppna samtidigt så vore det ju trevligt om dom fick plats i ram så det skulle gå snabbare för dig och hoppa mellan olika dokument utan att behöva läsa in dom från swap.

Att man skulle jobba med 2G stora dokument låter ju dock väldigt ovanligt...

Om du jobbar med QuickTime ProRes eller någon annan elak codec som skapar data av ingenting (Det är lite magiskt det där) där en videosnutt i 1080p kan gå från 100G till 1Tbyte genom att bara låta quicktime titta på den då är det ju bra med ram oavsett om du har 1 core eller 1.000

Mängden ram borde inte styras av antalet cpuer i datorn utan vad du jobbar med för datamänger.

  • Medlem
  • Stockholm
  • 2010-08-03 11:47
Ursprungligen av studiox:

Vi vet att du har obegränsat med budget och visst kan lägga ett par miljoner på en dator utan att det påverkar din eller ditt företags budget..

Alla vet också att dom som renderar professionellt inte direkt kör det på sin workstation (möjligtvis för preview eller post-rendering) utan låter, precis som du säger billiga linux kluster ta över. Servrar är gratis idag tack vare dell och andra tillverkare..

För övrigt, när man renderar på klienten så är det GPUn som gör mest jobb - varför sitter det annars Matrox eller ATI FirePro kort i workstations.

Vi kommer nog inte längre här.

Erhm.. Jag skulle säga de flesta "arbetststioner" idag:

1. Nyttjar GPUn (i bästa fall) för previews vid arbetet..
2. Generellt sitter ATI (FirePro) eller nVidia (Quadro)

Matrix är som sagt bra på att lösa mer unika skärm-möjligheter, men som gpu:er presterar de riktigt dåligt. Men som sagt hat de varit bra på unika system - flera skärmar eller skärmar långt bort från arbetsstationen..

Vad gäller renderingskluster vete tusan om det hör till vardagen i dessa sammanhang. För mindre bolag är det absurt dyrt att hålla ett kluster up-to-date och inte alls applikationer fungerar bra att distribuera över "billiga linuxservrar". .

Jag tror iden om 2GB minne per CPU bygger på processer som skalar med hjälp av flera processer snarare än hantera "n" kärnor internt. Ett klassiskt exempel är After Effects som helt enkelt öppnar X fler instanser av renderingsmotorn och därför även behöver mer minne per extra instans..

Av egen erfarenhet är 8GB RAM för en app som After Effects en begränsning på en 8-core MacPro (utan HT). Men ordentligt med RAM - speciellt nu i 64-bit eran skadar inte även om vi pratar om att cacha websidor och annat "krimskrams". Det finns däremot ingen direkt begränsning "per CPU" eller "per process" (om den är 64-bit). 32GB RAM i en 2-core maskin blir potentiellt svårare att nyttja dock, inte omöjligt men svårare..

  • Medlem
  • Nynäshamn
  • 2010-08-03 00:27

Shit asså 24 kärnor i Mac Pro nu. Tror fan inte att det kan hjälpa så mycket mer med hastighet nu.

Liksom jag får upp 16 kärnor i MenuMeters. Går ju liksom typ för fort att redigera 4K red material haha. Fast mycket händer väl genom red rocket kortet.

Men jag är nöjd med mina 16 kärnor. Men 24 kärnor är ganska coolt måste jag lova.

  • Medlem
  • Stockholm
  • 2010-08-03 00:56

Jag håller med dig Zimmerman - till viss del. Många mjukvaror nyttjar inte hårdvaran fullt ut för att motivera den exponentiellt högre kostnaden. Du nämner Motion - well de är i min mening jätte kul tech-demo vad som går att göra på en GPU när det kom men mjukvaran visar just en enorm brist - det skalar enormt dåligt (inte alls) över flera kärnor då det i stort sätt helt renderar på grafikkortet (och vi pratar inte häftiga OpenCL / CUDA kort här). För mycket skulle jag säga en snabbare CPU med lite färre kärnor och högre MHz vinner pris / prestanda. 4-6 kärnor, 2-4 GB RAM per kärna, en riktigt snabb GPU (Radeon-korten är inte dåliga men ett val av nVidias nya Quadro-serie vore intressant).

Citat:

För mycket skulle jag säga en snabbare CPU med lite färre kärnor och högre MHz vinner pris / prestanda. 4-6 kärnor, 2-4 GB RAM per kärna, en riktigt snabb GPU (Radeon-korten är inte dåliga men ett val av nVidias nya Quadro-serie vore intressant).

Här kom lite ny intressant information för min del.
Är det alltså så att när det är dags för inköp av (vad jag i dag gissar blir en 6-core) skall tänka betydligt mer RAM än vad jag först hade tänkt?

Givetvis beror det ju också på användningsområdet, men rent tekniskt,
finns det en begränsning för hur mycket minne varje kärna kan använda?

En 6-core önskar således 12-24 GB RAM förutsatt att alla kärnor får arbeta?

Man kan aldrig ha för mycket RAM. Det sa jag 1991 och det säger jag idag...och det kommer jag nog att säga om tio år också. Om jag lever vill säga.

  • Oregistrerad
  • 2010-08-03 15:19
Ursprungligen av Zimmerman:

Man kan aldrig ha för mycket RAM. Det sa jag 1991 och det säger jag idag...och det kommer jag nog att säga om tio år också. Om jag lever vill säga.

Där håller jag med helt Speciellt då ram (förhållandevis mot processorer) är billigt.

  • Medlem
  • Stockholm
  • 2010-08-04 15:39
Citat:

Om du jobbar med QuickTime ProRes eller någon annan elak codec som skapar data av ingenting (Det är lite magiskt det där) där en videosnutt i 1080p kan gå från 100G till 1Tbyte genom att bara låta quicktime titta på den då är det ju bra med ram oavsett om du har 1 core eller 1.000

Erhm.. What? Skapar data av ingenting? Magiskt what what? Jobbar du med videoredigering i en NLE laddar du sällan in all video i ram-minnet då det tar sådan ofantlig mängd minne. ProRes är dessutom ett komprimerat format på sina ca 220 / 440 mbit/s..

Jobbar du däremot i ett compositing eller video-bearbetningsverktyg är "dokument" på 2GB inte alls ovanliga. Och 2GB / kärna regeln är inte alls dum då den bygger på en 32-bit värld vi delvis lever kvar i. Regeln lever även delvis kvar i vissa sammahang under 64-bit eran även om det bara är en höftad "regel". Har du en uppgift som kan taxa ex 2 kärnor av 8 kan du på denna maskin köra 4 parallella likadana uppgifter, dvs du behöver 4 ggr mer RAM (ungefär) för att lösa uppgiften. .

Allt beror på vad du gör men generellt skulle jag säga reglen fler kärnor i en maskin kommer naturligt behöva mer RAM för att fungera effektivt. Du kommer ha svårt att taxa ett 2-core system så den nyttjar 32GB RAM i After Effects. Det går men då pratar vi ganska ovanliga projekt. Ett 12-core system kommer mycket lättare suga åt sig av minnet pga hur man löst parallell-processeringen där. Så enkelt är det idag..

Word är för övrigt ett 32-bit program så mycket mer än 4GB RAM i en maskin för det gör liten skillnad (troligen kan du adressera ca 4GB RAM per Office-app dock så helt sant är det inte med den begränsningen)..

  • Oregistrerad
  • 2010-08-04 16:14
Ursprungligen av Erik.dv:

Erhm.. What? Skapar data av ingenting? Magiskt what what?

Men snälla nån, får man inte skämta här? Måste man börja varje skämt med [ironi] för att folk ska förstå?

Ursprungligen av Erik.dv:

Och 2GB / kärna regeln är inte alls dum då den bygger på en 32-bit värld vi delvis lever kvar i...

Regeln lever även delvis kvar i vissa sammahang under 64-bit eran även om det bara är en höftad "regel".

Vet du i överhuvudtaget vad den bygger på?

Ursprungligen av Erik.dv:

Allt beror på vad du gör

Exakt

Du kommer ha svårt att taxa ett 2-core system så den nyttjar 32GB RAM i After Effects. [/QUOTE]

Kan du förklara lite för mig hur After Effects addresserar ram? Om jag kör ett projekt i en burk med 2 processorkärnor och 10G ram kommer inte då det projektet kunna sluföras snabbare om jag har en burk med 4 processorkärnor och 10G ram? Hur mycket snabbare går det om jag har 48G ram?

Skulle gärna vilja veta, och eftersom du verkar veta detta kanske du kan förklara det för mig?

Man kan nog lugnt säga att 2GB per processor är ett absolut minimum.
(Kör med 16GB på en normal 8core, ingen hyperthreading
och renderar med ett tillägg, GridIron, som kör ett AE per
processor)

Skrivet av Todd Kopriva från Adobe som jobbar specifikt med AfterEffects
technical support.
"Consider that you get the best performance with 3-4GB of installed RAM per processor core. Also consider that hyperthreading multiplies the number of physical cores by 2 to give the number of usable processor cores.

This means that a quad-core machinepresents 8 processors to After Effects, and to use those optimally you should have 24-32GB of RAM.

Getting an octo-core machine without getting 48-64GB of RAM is a bit of a waste (in the After Effects context, anyway).

BTW, I personally just bought a quad-core with 24GB of RAM. So, I'm putting my money where my mouth is."

mvh
Lennart

  • Oregistrerad
  • 2010-08-05 12:45
Ursprungligen av tcastudios:

Man kan nog lugnt säga att 2GB per processor är ett absolut minimum.
(Kör med 16GB på en normal 8core, ingen hyperthreading
och renderar med ett tillägg, GridIron, som kör ett AE per
processor

Det är alltså GridIron som gör multitaskingen och, gissar att den fördelar renderingsjobb? Det är alltså ungefär som att köra handbrake 24 ggr. Det är ju i sådana fall multitasking får mest effekt.

Skulle vara väldigt trevligt att se en skärmdump på din aktivitetskontroll när du kör detta på din 8core burk för att se om alla cores går i taket.

  • Medlem
  • Stockholm
  • 2010-08-12 12:40
Ursprungligen av studiox:

Det är alltså GridIron som gör multitaskingen och, gissar att den fördelar renderingsjobb?

GridIron dog mer eller mindre i och med AE CS3 eller 4. Den har vissa features som är roliga men mycket är inbakat i AE idag. Hur det fungerar är dock på ett liknande sätt After Effects hanterar arbetet på flera kärnor och det är på två sätt idag:

1. Du har din "main application" som är After Effecs. Denna jobbar vid rendering sekventiellt genom din composition från frame 0 till frame 100.

2. Du har möjlighet att aktivera flera render engines på din maskin. Dessa fungerar som så att de öppnar flera instanser av After Effects renderings-motor. Varje instans kommer rendera 1 extra frame åt gången utöver den framen din main-app jobbar på.

Med ovan, lite beroende på vad du gör, kan du generellt sätt maxa vilken maskin som helst. Punkt 1 är helt beroende av hur väl en funktion skalar över flera kärnor. Punkt 2 är en lösning att även få den funktion som bara fungerar på få kärnor ändå skala hyfsat väl över flera då du helt enkelt multiplicerar mängden jobb på maskinen.

Dock finns ett par begränsningar:
1. Om du jobbar med filter / effekter som jobbar över tid, dvs ett filter på frame 50 är beroende av frame 40 och 60. Här kommer renderingsmotorerna få problem eller begränsas.

2. RAM-minne i maskinen

3. Övrigt i/o i datorn

Allting är lite beroende på vad du gör men tum-regeln är att flera kärnor kommer skala bättre med mer RAM då hela arkitekturen fungerar så.

Ursprungligen av studiox:

Det är alltså ungefär som att köra handbrake 24 ggr. Det är ju i sådana fall multitasking får mest effekt.

På ett ungefär ja. Det kräver också 24 ggr mer RAM-minne än 1 instans. After Effects har i sin 32-bit version (CS4 och innan) haft problem med just RAM-minne. Du fyller cachen ganska fort vilket kan få programmen kan krasha eller ge upphov till andra problem (avbrutna renderingar, renderings artifakter m.m.). Lösningen är att rensa minnet efter X frames jobb vilket är en uppskattning användaren får göra. Nackdelen med att rensa cachen är att renderingar tar längre tid (mer i/o till disk, prep av material m.m), dvs du vill undvika detta i största mängd möjligt och du vill ha tillgång till så mycket RAM som möjligt. Men i 32-bit eran kunde vi bästa fall få tillgång till c:a 3GB RAM vilket som sagt i flera fall vad gäller After Effects leder till problem bara där.

Vidare har man löst problemet med "skalning över flera kärnor" genom att just rendera flera frames samtidigt då alla operationer inte skalar bra för detta "out of the box". Detta är inte en ovanlig lösning i denna typen av applikationer. Dock ställer det ännu högre krav på RAM-minne (och ju fler kärnor ju fler procresser kommer du kunna rulla tillsammans).

Jag kan tänka mig Logic fungerar lik-artat men då kanske man separerar upp varje kanal till olika kärnor. Flera parallella arbete = mer minne krävs.

Ursprungligen av studiox:

Skulle vara väldigt trevligt att se en skärmdump på din aktivitetskontroll när du kör detta på din 8core burk för att se om alla cores går i taket.

Ska se vad jag kan gräva fram. Allt beror på vad du gör. Generellt sätt är det inte effektivt att köra 8 processer på en 8 core maskin, ibland kan det vara det men generellt skulle jag ligga på runt 50% av mängden core's i just AE. De flesta operationer skalar åtminstone över 2 cores vilket gör att 4 instanser maxar 8 cores väl. Detta är som sagt applikations-specifikt och har inget med hur saker skalar över cores att göra.

Ursprungligen av studiox:

Men snälla nån, får man inte skämta här? Måste man börja varje skämt med [ironi] för att folk ska förstå?

Haha, visst får man göra det, men det lät mer som okunnighet än ironi. Ber om ursäkt om det togs fel!

Ursprungligen av studiox:

Vet du i överhuvudtaget vad den bygger på?

Även om du citerade mig här vet jag inte vad du hänvisar till. 32-bit applikationer är begränsade till c:a 4GB RAM (i verkligheten runt 3GB, något beroende på OS). Därav under en 32-bit era med applikationer som kan skala med "flera instanser" så är 2GB / core en rimlig regel att följa.

Ursprungligen av studiox:

Kan du förklara lite för mig hur After Effects addresserar ram? Om jag kör ett projekt i en burk med 2 processorkärnor och 10G ram kommer inte då det projektet kunna sluföras snabbare om jag har en burk med 4 processorkärnor och 10G ram? Hur mycket snabbare går det om jag har 48G ram?

Det beror lite på men generellt sätt skulle jag säga flera core's kräver mer RAM (och kan därigenom få ut mer prestanda).

En komp som endast nyttjar 2 cores kommer skala fint till 12 cores om du renderar flera instanser av scenen. RAM-minnes kravet kommer dock öka också (osäker på om det är 100% linjärt men det ökar ordentligt). Det skulle vara mycket svårare att maximera nyttjandet av 48GB RAM i en 2-core maskin kontra en 12-core maskin.

Moderna 64-bit apps kanske kring-går "regeln" något men idagsläget skulle jag inte säga det är fallet alls.

För övrigt tycker jag MacPro i dagsläget är GALET dyr. Min 8-core 2.8Ghz MacPro 2008 med 8GB RAM gick på under 30 000 kr. Vete tusan om det är värt att "uppgradera" till en 6-core MacPro 2010...

Nu finns priserna i Apple Store: Mac Pro - Apple Store (Sverige)

Man kan inte beställa 6-core solo vad jag kan se....

Ursprungligen av Adrian B:

Nu finns priserna i Apple Store: Mac Pro - Apple Store (Sverige)

Ursprungligen av Zimmerman:

Man kan inte beställa 6-core solo vad jag kan se....

Jorå, man trycker bara på gamla Nehalem så finns det 6-core solo alternativ. 35 995:-)

Senast redigerat 2010-08-09 11:34

Aha. Tack. (skum ickelogik dom kör med)

Ursprungligen av Einar Lindgren:

Jorå, man trycker bara på gamla Nahelm så finns det 6-core solo alternativ. 35 995:-)

  • Medlem
  • Halmstad
  • 2010-08-09 12:02
Ursprungligen av Einar Lindgren:

Jorå, man trycker bara på gamla Nehalem så finns det 6-core solo alternativ. 35 995:-)

Antagligen för att det skall bli ett ordentligt prestanda-gap till westmere. 6-core westmere hade säkert legat för nära i prestanda med 12-core, och därmed alltför mycket ett bättre köp.

  • Oregistrerad
  • 2010-08-09 11:47

Två 2,66 GHz 6-Core Intel Xeon "Westmere" (12 kärnor)
Två 2,93 GHz 6-Core Intel Xeon "Westmere" (12 kärnor) [+ 12.000,00 kr]

Bara 12k, då kan man undra vad det skulle kosta att gå från 2,93 till 3,33..

  • Oregistrerad
  • 2010-08-09 11:50

Det här är ju "intressant":

512 GB solid-state-enhet [+ 12.495,00 kr]

Vem faan har råd att köpa en 512G SSD idag?

Bevaka tråden