NNIT's hemmelige danske datacenter kan fjernstyres fra Kina

Reportage: NNIT's nye datacenter er bygget til at være køligt, men før alle servere er sat op, har vintervejret betydet, at selv med kølesystemet i tæt ved tomgang har det været nødvendigt at opsætte varmeblæsere.

Det er koldt at færdes i et halvtomt datacenter, der er designet til at være grønt. I hvert fald har håndværkerne i NNIT's nye datacenter på en hemmelig adresse i Storkøbenhavn været nødt til at opsætte varmeblæsere for både at holde dem selv og udstyret varmt.

»Vi har haft et lidt pudsigt problem her i starten, for bygningen er bygget til at skulle af med varmen,« fortæller data center manager Mads Claus Henriksen fra NNIT.

Køleanlægget er dimensioneret til, at datacenteret skal kunne holdes i drift stort set udelukkende ved hjælp af frikøling, altså ved at luften omkring datacenteret køler kølevandet ned uden brug af kompressorer og særlige kølemidler.

Læs også: Her er hemmelighederne bag NNIT's nye datacenter

Men selvom køleanlægget kører i tomgang i vinterfrosten, så er det ikke nok til at holde bygningen varm. Derfor har det paradoksalt nok været nødvendigt at bruge elektricitet til at holde bygningen varm, så udstyret ikke bliver ødelagt.

To datacentre skal sikre oppetid

Da Version2 besøger NNIT's nybyggede datacenter, venter tomme racks og switche på, at servere og storageudstyr bliver installeret. Når først det udstyr er installeret og taget i brug, så burde varmeblæserne kunne slukkes igen.

NNIT skal opsætte to nye klynger eller cores med standardudstyr, som skal bruges til at afvikle kundernes applikationer. Udstyret er allerede blevet samlet og prøvekørt på én af NNIT's andre lokaliteter, og planen er at få alt sat op så hurtigt som muligt i det nye datacenter.

Det nye datacenter skal fungere som det ene af to primære datacentre, og derfor er der også blevet lagt ekstra fiberkabler ned mellem de to datacentre, som ligger cirka 10 kilometer fra hinanden. Det svarer også til den typiske afstand, hvor man kan undgå forsinkelser, hvis man eksempelvis skal sikre spejling i realtid og nonstop-drift.

»Vi har lagt ekstra fiber ned, så vi har cirka 10 gange den kapacitet, vi skal bruge. Det er første gang, jeg har prøvet sådan noget, og jeg havde ingen forestilling om, præcis hvor mange gravetilladelser, man skal skaffe,« fortæller projektleder Max Steen Jacobsen fra NNIT. Han er nu ansvarlig for den del af projektet, som handler om at opbygge datacenterets grundlæggende infrastruktur.

Cloud-teknologi og færre kabler
Oven i migreringen arbejder NNIT også på at opbygge en enterprise cloud-infrastruktur, som kunderne kan anvende. Meget af datacenteret bygger i forvejen på de teknologier, som bruges til at skabe et fuldstændig virtuelt datacenter.

Eksempelvis skal ét samlet Cisco-netværk køre både netværk og storage , som styres af to redundante Cisco-switche. Via et krydsfelt er disse switche forbundet til mindre switche, som er sat op med jævne mellemrum i serverskabene.

»Ved at bruge top-of-rack-switche, så behøver vi ikke kable massivt ud. Vi kabler så ud til to nabo-racks. Det er mest økonomisk,« forklarer Mads Claus Henriksen.

Alle kabler til strøm og netværk er lagt under det hævede gulv, men der er også opsat kabelbakker i loftet for at kunne trække ad hoc-kabling. Alle netværkskabler er i øvrigt trukket som ren fiber, da kobberkabler simpelthen ville fylde for meget.

Mikroskopisk 'forzinkelse'
Gulvet er primært hævet for at give plads til infrastrukturen. Tidligere var det almindeligt at hæve gulvet for at blæse kold luft op gennem riste i gulvet, men NNIT planlægger, at det stort set skal være den samme luft, der cirkulerer. Det gør det lettere at holde luftfugtigheden på det rette niveau og giver færrest problemer med partikler.

Selve kølingen foregår ved en opdeling i kolde og varme gange. De varme gange er overdækket med et loft af plexiglas, som sørger for, at den varme luft, som blæses ud på bagsiden af it-udstyret bliver ledt hen til køleenhederne. Køleenhederne får koldt vand fra køleanlægget, og det køler luften ned, inden den blæses ud igen i den kolde gang.

Da det hævede gulv skulle installeres, løb byggeprojektet ind i en mindre forsinkelse, fordi det viste sig, at det ben, som skulle understøtte gulvet, var elektrogalvaniserede i stedet for varmforzinkede. Det betød, at risikoen var betydeligt større for dannelsen af såkaldte zinc whiskers eller mikroskopiske zinkfaner.

Zinkfaner er et fænomen, som blandt andet er blevet studeret af den amerikanske rumfartsorganisation Nasa, efter de små zinktråde flere gange havde forstyrret driften i dets datacentre. Processen bag dannelsen er endnu ikke fuldstændig kortlagt, men efter en periode på op til et par år kan der dannes små tråde af galvaniseringsmaterialet, som stritter ud som små hår.

Disse zinkfaner kan rives løs og bliver dermed til elektrisk ledende støv, som kan ødelægge elektronikken, når de føres rundt med luftstrømmene.

Netop fordi støv kan ødelægge udstyret, så har NNIT også sammen med entreprenørerne arbejdet på hele tiden at gøre rent i bygningen. Rengøringen i den sidste fase af projektet kommer dog med visse ulemper.

Fjernstyring holder teknikere ude af maskinstuen
Mens Version2 bliver vist rundt, lyder en alarm fra kølerummet flere gange. Det er en ammoniaksensor, som skal slå alarm, hvis ammoniak fra backupkølesystemet slipper ud, men sensoren er så følsom, at den også reagerer på almindelige rengøringsmidler.

Når først udstyret er på plads, så forventer NNIT imidlertid, at der ikke bliver behov for tilsvarende hyppig rengøring.

»Når vi er i drift, så mindskes persontrafikken. Vi forsøger at lave det hele, så det kan fjernstyres og frigøre teknikerlaget fra datacenteret. Det var nemt nok at sende en tekniker, da maskinstuen lå lige om hjørnet, men nu vil vi kunne outsource en opgave til vores kinesiske kolleger. Det giver os også et længere tidsrum at arbejde i,« siger Mads Claus Henriksen.

»Det er også ulideligt at sidde og arbejde i et miljø herinde i datacenteret,« siger Max Steen Jacobsen.

Sweet spot på 7 kilowatt pr. rack

NNIT's nye datacenter er bygget med forventning om, at bygningen skal kunne holde i 50 år, selvom der vil skulle udskiftes udstyr løbende. Derfor er eksempelvis strømforsyningen også dimensioneret til, at man vil kunne køre med en samlet effekt på op til 30 til 40 kilowatt i enkelte racks.

»Men det kan ikke betale sig. Sweet spot ligger for os på lige omkring 7 kilowatt, så vi blander udstyret, og der ingen idé i at fylde en rack helt op,« siger Mads Claus Henriksen.

»Vi har valgt et fleksibelt layout ud fra en tanke om, at tre ting altid vil gælde: Vi regner med, at it i fremtiden vil skulle bruge noget strøm, det skal bruge noget plads, og det vil skulle af med noget varme,« forklarer Mads Claus Henriksen.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Kommentarer (7)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
#2 Jette Hartmann

»Når vi er i drift, så mindskes persontrafikken. Vi forsøger at lave det hele, så det kan fjernstyres og frigøre teknikerlaget fra datacenteret. Det var nemt nok at sende en tekniker, da maskinstuen lå lige om hjørnet, men nu vil vi kunne outsource en opgave til vores kinesiske kolleger. Det giver os også et længere tidsrum at arbejde i,« siger Mads Claus Henriksen"

  • 0
  • 0
#3 Benny Tordrup

Fra afsnittet

»Når vi er i drift, så mindskes persontrafikken. Vi forsøger at lave det hele, så det kan fjernstyres og frigøre teknikerlaget fra datacenteret. Det var nemt nok at sende en tekniker, da maskinstuen lå lige om hjørnet, men nu vil vi kunne outsource en opgave til vores kinesiske kolleger. Det giver os også et længere tidsrum at arbejde i,« siger Mads Claus Henriksen.

Tror nu mere, det er for at illustrere konceptet med fjernstyring.

  • 0
  • 0
#4 Michael Deichmann

Jeg ved vi (IBM) ikke er så gode til at fortælle de gode historier som bl.a. NNIT og de dårlige står V2 og især CW jo i kø for at fortælle, men i 1996 flyttede vi overvågning af alle mainframes til udlandet (UK) og i de sidste mange år er der ingen IT-specielister nødvendige i maskinstuerne - kun elektrikkere og montører (vi har endnu ikke sat robotter til at montere HW men det bliver vel det næste).

  • 0
  • 0
#5 Jan Ulrich Jensen

Det ville være en lige så rammende overskrift på artiklen, som egentlig blot er den sidste i rækken af "Hvordan vi byggede vores datacenter"-artikler. Den ville dog ikke være lige så fængende som den nuværende Ekstra Blads-overskrift.

For en virksomhed, der sætter energibesparelse højt ville det i øvrigt også være mere passende at fjernstyre fra den energi-neutrale ø, Samsø!

Jeg vil slet ikke kaste mig ud i Kinas energifråds i denne kommentar. Det ville kræve en månedslang artikel-serie.

PS: Jeg kan fjernstyre Amazons og Microsofts Cloud-datacentre fra både Bali, Vietnam og Danmark! ;-)

  • 0
  • 0
#7 Anders Hedelund

Hej gamle ven, nej egl. ikke. Da jeg "ejede" IBMs maskinstuer i Norden, fik vi også indrettet sådan et sort center et sted i Sverige til spejling af hele installationen for en stooor skandinavisk bank - og de kunder, der i øvrigt måtte være interesseret i komplet spejlet, fysisk og geografisk adskilt installation.

Den mærkeligste remote installation, jeg nogen sinde har lavet, var en mainframeapplikation i Rio de Janeiro, som jeg installerede fra Birkerød i starten af halvfemserne.

Der var bemærkelsesværdigt stille fra den brasilianske ende, så da vi ved afleveringen spurgte dem, hvad de havde foretaqet sig, svarede de "Karneval".

Derefter besluttede vi, at af tekniske årsager kunne Brasilien kun håndteres ved on-site support.

Cariocaerne er nogen vidunderlige, gæstfrie og hjertevarme mennesker. No drugs needed to get high.

  • 0
  • 0
Log ind eller Opret konto for at kommentere