For lidt udbytte af at pakke udstyret tættere i datacentret

Det er muligt at fylde en rack med udstyr med en samlet effekt på 20 kilowatt, men i praksis viser det sig, at det sjældent kan betale sig at øge tætheden i datacentret over en vis grænse.

Datacenterdesignere har for at være på den sikre side de seneste år designet datacentre til, at der i en enkelt serverrack kunne sidde udstyr med en samlet effekt på 20 kilowatt eller mere. Det er sket ud fra en forventning om, at tætheden i datacentret ville blive ved med at vokse. Men det ser ud til ikke at være tilfældet.

Når man medregner den øgede kompleksitet ved at bygge datacentre med ekstra høj tæthed, så kan det kun betale sig, hvis kvadratmetrene er sparsomme.

»Fremtidens datacenter vil se ud meget som i dag med en gennemsnitlig tæthed på 3-4 kilowatt og maksimalt 11 kilowatt. Det kan køres med høj grad af pålidelighed,« siger chef for datacenterstrategier Kevin Brown til Data Center Knowledge.

Den gængse visdom har været, at tætheden i datacentret ville vokse som et indirekte resultat af blandt andet Moores lov. Men det holder ikke stik i praksis ifølge Kevin Brown. Chipproducenterne har nemlig fokuseret på at forbedre ydelsen pr. watt, og derfor er tætheden målt i watt pr. rack ikke steget så meget, som det blev forudset.

Læs også: Sweater eller t-shirt - hvor koldt eller varmt skal der være i datacenteret?

Den udvikling betyder, at i forhold til omkostningerne, så kan det ikke betale sig at øge tætheden meget over 10 kilowatt pr. rack, og lidt lavere tæthed kan endda være en fordel.

Hos danske Nianet er erfaringen da også, at tætheden i praksis ligger noget lavere end forudset.

»Da vi byggede vores sidste nye datacenter i Glostrup, viste vores erfaring fra vores fire andre centre denne udvikling. Vi har dimensioneret vores nyeste center i grundkonfigurationen til gennemsnitligt 15 kilowatt pr. rack. Vi ser i praksis, at ruminddelinger, spildplads, krydsfelter, lav densitetsudstyr med mere alt sammen gør, at vi holder os noget under i praksis,« siger direktør Rasmus Helmich fra Nianet til Version2.

Høj tæthed kan give mening, hvis pladsen er begrænset, og datacentret designes til at udnytte rummet bedst muligt. Men for mange datacentre vil høj tæthed give problemer.

Læs også: Sådan bygger Steria ultrakompakt datacenter i Ballerup

»Der er klart et trade-off mellem at bygge større centre og dermed brede sig i forhold til at bygge på mindre plads, men med ultrahøj kapacitet. Køling kan ikke laves effektivt, hvis vi kommer for højt op i densitet, og bliver for dyrt,« siger Rasmus Helmich.

Højere tæthed betyder mere varmeudvikling pr. rack, og derfor kan det være nødvendigt med specielle kølesystemer. Da tætheder på mere end 20 kilowatt pr. rack blev forudset, arbejdede flere leverandører således på systemer, hvor hver rack havde en kølevandsforsyning til at vandkøle serverne.

Den slags løsninger indebærer imidlertid en øget omkostning til eksempelvis rørføring, så det kan kun betale sig, hvis andre løsninger ikke kan lade sig gøre.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Kommentarer (3)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
#2 Deleted User

Jeg tror ikke helt, at du forstår problematikken. "High Density Computing" var hot (og er det i og for sig stadigvæk) for 5 år siden. For 5 år siden var Quad-core CPU'er rimelig standard i x86 blades. I dag er Octo-core eller mere meget almindeligt. Det var derfor ikke DENGANG urimeligt at antage, at strømbehovet i et rack fyldt med blades ville vokse i takt med antallet af kerner i CPU'erne. Men chip-producenterne er også hoppet med på den grønne bølge, og et rack med 64 x86 blades med 2 cpu'er i hver, bruger derfor ikke dobbelt så meget strøm i dag, som de gjorde for fem år siden - selvom antallet af kerner og mængden af ram er blevet fordoblet. Nianet bygger jo primært datacentre, der har til formål at huse andre kunder end dem selv. Disse kunder betaler dels pr. kvm og dels per watt de bruger, og derfor har kunden interesse i at presse sig ned på så få kvm som muligt. - Men jo højere densitet du har per rack, jo dyrere bliver det og køle det, og derfor kan det i nogle tilfælde bedre betale sig at sprede sig på flere kvm, frem for at have en så høj densitet som muligt. Medarbejdernes arbejdsvilkår har næppe meget at sige i denne sammenhæng ;)

  • 0
  • 0
#3 Deleted User

Udbredningen af SAN og Virtualisering har også en del at skulle have sagt i denne sammenhæng, efter min mening. Fordi vi oplever fortsat, at densiteten i vores blade racks stiger, men gennemsnittet bliver trukket ned, af alle de andre racks som f.eks. er fyldt med san controllere, dertilhørende diske, og netværksudstyr som densitet-mæssigt slet ikke kan hamle op med blades. De 15 kilowatt i gennemsnit per rack som Nianet har, virker derfor ganske rigtigt til at være rimelig fremtidssikret på baggrund af ovenstående.

  • 0
  • 0
Log ind eller Opret konto for at kommentere