Hostingfirma fældet af plastikdel til få hundrede kroner: Frygtede eksplosion i datacenteret

Illustration: UnoEuro
Hostingvirksomheden UnoEuro stod fredag uden strøm i et datacenter, da et defekt panel ikke fik slået nødgeneratoren til.

Fire årlige leverandøreftersyn, loadtest og redundante UPS-anlæg var ikke nok til at holde et datacenter, der drives af hostingvirksomheden UnoEuro. En strømafbrydelse kombineret med en fejl i nødgeneratoren mørklagde datacenteret fredag klokken 20:50.

Et fejlramt modul betød, at nødgeneratoren ikke slog til, som den burde, fortæller Tom Sommer, der er CTO for UnoEuro.

»Et datacenter uden strøm er jo et mareridt,« siger han til Version2.

Læs også: Amazons sky gør klar til at indtage Danmark: Jeg forstår godt, hvis I er nervøse

Datacenteret bruges af UnoEuro og Wannafind, der begge er underselskaber af Zitcom. Datacenteret var nede i omkring fire timer.

Datacenteret har redundante internetforbindelser, redundante UPS-anlæg, strømforsyninger til serverne samt en offsite backup af data. Men ikke en redundant nødgenerator, fremgår det af statusrapporteringen fra UnoEuro.

Leverede strøm til ingenting

Det fejlramte modul havde til opgave at opdage, når strømmen fra elnettet forsvinder. Når det sker, skal enheden skifte strømforsyningen til nødgeneratoren.

»I dette tilfælde koblede den blot nettet fra og startede generatoren – men lagde ikke generatoren ind som forsyning,« fortæller Tom Sommer om hændelsen.

Læs også: Interxion forsøger at fremtidssikre ny datacenterbygning i Ballerup

»Så generatoren tændte som den skulle, men den stod og leverede strøm til ingenting,« fortsætter han.

Risiko for eksplosion

Datacenterets UPS-anlæg - der står for Uninteruptable Power Source - havde batteri til at holde centreret kørende i 36 minutter.

»Vi overvejede, om vi skulle forsøge at få strøm på, mens der stadig var batteri på UPS-anlægget,« siger Tom Sommer.

Men meldingen fra elektrikerne, som blev tilkaldt, var klar: Et fejltrin kunne give en eksplosion i datacenteret. Hvis generatoren og elnettet leverer strøm samtidig, ville de fremmødte teknikere risikere, at både strømtavle og generator sprang i luften, hvis noget blev slået til forkert.

Læs også: Efter kæmpe-nedbrud og datatab: Nu går Salesforce til AWS

»Der konkluderede vi hurtigt, at vi hellere ville have et datacenter uden strøm end intet datacenter. Vi tog det sikre valg,« fortæller Tom Sommer, der under hele episoden tog billeder og holdt kunderne opdaterede med tweets og Facebook-opslag.

»Vi har forsøgt at være så åbne som mulige og prøvede at holde folk opdaterede, så de vidste, at vi ikke bare sad og drak kaffe,« siger Tom Sommer.

Plastikdel til få hundrede kroner

Efter få timer kunne de to tilkaldte elektrikere udpege modulet - et fejlramt panel - som årsagen til nedbruddet. Efter at have fremskaffet og skiftet reservedelen var stort set hele datacenteret igen kørende omkring klokken 01 natten til lørdag.

»Det værste er, at det er en plastikdel på et par hundrede kroner, som elektrikeren havde på lager,« siger Tom Sommer.

Læs også: It-chefer kan ikke leve op til interne mål om nedetid: Baseres på gæt og mavefornemmelser

Ifølge Wannafind er reservedelen nu blevet bestilt til et lokalt lager ved datacenteret. Den fejlramte del er nemlig ikke nem at teste som en del af den almindelige datacenter-drift.

»Så vidt vi har fået af vide af elektrikerne så er der ikke noget vi kunne have gjort for at teste delen,« forklarer Tom Sommer.

Tilfredse med håndteringen

Ifølge Tom Sommer er selskabet inde i overvejelser om at flytte datacenteret til et med endnu højere redundansgrad. Det planlægningsarbejde begyndte tidligere på året, fortæller han.

»Vi har ikke besluttet endnu, om vi skal blive ved med at drive eget datacenter.«

Læs også: Strømsvigt er stadig datacentrets største fjende

Ifølge Wannafind vil selskabet nu vurdere, om testprocedurer for nødgeneratoren skal ændres. Samtidig har virksomheden bestilt en ekstern risikovurdering.

Alt taget i betragtning er Tom Sommer tilfreds med håndteringen af den kritiske situation.

»Vi er lykkelige over, at det ikke tog længere tid,« siger han.

UnoEuro ventede ved redaktionens afslutning på en debrief fra elektrikerne og kunne derfor ikke oplyse nærmere, hvad den skyldige plastikdel specifikt kaldes.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Følg forløbet
Kommentarer (46)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Gordon Flemming

»Så vidt vi har fået af vide af elektrikerne, så er der ikke noget vi kunne have gjort for at teste delen,« forklarer Tom Sommer.

I dag er den eneste måde at teste plastikdimser og redundans på, nemlig ved at at bruge det i produktionen, og så bare håbe på at det holder.

  • 7
  • 13
Bjarne Oldrup

Når nu omtalte dims, spiller en så afgørende i den ellers udmærkede historie, så kunne man måske tiltro læserne af v2 at fortælle hvad det var een - dims?

Salg af computer-dimser steget Magnussen ude af formel 1 på grund af fejl i bil-dims Læge glemte metal-dims i patient

;)

  • 33
  • 0
Gordon Flemming

Jeg tror at det hed "relæ" en gang i bibelsk tid, men "dims" er klart bedre, det kan alle forstå.

Fejlen viste sig at være en defekt enhed i nødstrømsgeneratoren i det panel, der bestemmer, om datacenteret skal køre på strøm fra el-nettet eller på strøm fra generatoren selv.

  • 2
  • 5
Claus Bobjerg Juul

Kan vi konkludere at, der har været en indkøber, der har ladet sig overtale af en sælger, til at købe noget som faktisk ikke var hensigtsmæssigt/godt nok?

Stol aldrig på det som en sælger siger, da han/hun ikke kender de, for dig, nødvendige detaljer.

  • 2
  • 6
Claus Pedersen

Kan du venligst uddybe din kommentar?

Jeg synes bare ikke din kommentar er specielt passende. Artiklen beskriver tydeligt at virksomheden gør hvad de kan for at have styr på redundansen. Herunder at teste at det fungerer 4 gange årligt.

Havde de kunnet undgå nedetid i deres datacenter, så er jeg sikker på at de ville have gjort alt for det.

Derfor synes jeg at sådan en kommentar er lidt for letkøbt.

Når man fulgte deres status opdateringer under hele forløbet, så synes jeg sgu' de taklede det flot: https://twitter.com/unoeuro

  • 19
  • 3
Gordon Flemming

Claus,

Hvis du mener at leverandøren er elektrikeren i dette tilfælde, så vil jeg give dig ret. Men husk, der skal to til at virkeligøre en løgn, en til at fortælle den, og en til at lytte. Elektrikeren siger "der var ikke noget i kunne gøre", og den forklaring passer UnoEuro, så de køber den. Et typisk forsøg på at placere et ansvar, uden at nogen bliver ansvarlige.

Og hvorfor er der kun batterikapacitet til 30 minutter, når det tager minimum 60 minutter før en elektriker kan være onsite?

Og hvornår er kredsløbet sidst blevet testet live? Denne fejldims kunne være fundet i tide.

  • 4
  • 1
Anders Johansen

Havde de kunnet undgå nedetid i deres datacenter, så er jeg sikker på at de ville have gjort alt for det.

Det er vel derfor en af de basale lektioner hvis man vil have redundans i strømmen er at have 2 helt separate kredsløb, hver med sin egen bystrøm/ups/generator og hver enhed som er driftskritisk har 2 strømforsyninger som fødes af hvert sit kredsløb... Så fejler det ene kredsløb kan det andet stadig levere strøm til datacenterets kritisk udstyr...

Så nej, havde de ville undgå nedetid havde de taget et sådant valg. Alt andet er en kalkulation af at fejlscenariet hvor det bliver nødvendigt med den dyrere løsning er så usandsynligt at man accepterer den - og nu må leve konsekvensen af det valg...

Oppetid og redundans er altid en afvejning af omkostning ved at gøre det kontra ikke at gøre det. I dette tilfælde valgte UnoEuro ikke at gøre det, og det bed dem så i deres dertil indrettede...

  • 10
  • 0
Esben B Tholstrup

På beskrivelsen lyder det til at være i forbindelse med synkroniseringen at der har været problemer.

https://en.wikipedia.org/wiki/Synchronization_(alternating_current)#Process

Hvis man kludrer i det kan man nok komme til at sende strømmen ind i batterierne og skabe en eksplosion.

Man kan koble ind manuelt men det gøres som regel nårder er større "kaft" i nettet end i generatoren.

  • 2
  • 0
Michael Fjeldsted

Når 1 dims kan få det hele til at fejle så er det ikke særligt redundant. De fleste steder hvor oppetid er vigtig kører man med redundant strøm og dermed 2x bystrøm/UPS/generator. Skulle en dims så fejlen et sted, så kører den anden linie stadig. Derudover havde de også placeret begge deres dns servere i samme datacenter, så selv ting der ikke en gang var hosted der var også nede hvis dns kørte derfra.

Kun én ting gælder hvis man vil sikre sig oppetid og det er ikke at være afhængig af én ting. Redundans, redundans, redundans....

  • 6
  • 0
Jan Heisterberg

Kommentarerne, og måske artiklen, synes skrevet af it folk. Det her er et stærkstrømsproblem. Kun Esben A. Black synes at være tæt på problemet.

Det er vel klart, at den eneste effektive måde at teste på er at afbryde netforsyningen og så se hvad der sker. Det kan have den konsekvens at det hele ryger ned - og det vil man nok lige tænke over. Er det bedre at teste, med deraf følgende risiko for nedbrud, eller teste mindre indgribende, men i god faglig tro, og så regne med at det er godt nok når det gælder ? Den almindelige tankegang er nok: "det går nok....".

I gamle dage, måske for 30-40 år siden, kørte de fleste mainframe computere sådan cirka 6 døgn om ugen. Det var kutyme at lave en powerdown-restart for at sikre (!) det var muligt (underforstået efter en forsyningsfejl). Jeg kan ikke huske statistikken, men det hændte at it-tekniker måtte tilkaldes. Denne, skal vi sige, bevidste tekniske provokation, testede jo så systemet. Nogle virksomheder valgte så at afstå fra denne test efterhånden som de så det normalt gik "godt". Men nu er vi i en 24/7 æra, med dubleringer og ups'er. Det er ikke lettere .."

  • 6
  • 0
Knud Høgh Knudsen

Det er beskæmmende at et fagblad viderebefordrer "plasticdims" betegnelse for en fejlramt komponent. Givetvis et relæ. Det medfører ovenstående en useriøs tråd af gisninger i stedet for en reel drøftelse af sikkerheden for forsyningen til et datacenter. I øvrigt: At man ikke kan indkoble generatoren til et system der er forsynet over en UPS er mig ubegribelig og må tilskrives manglende indsigt i systemets opbygning af operatørerne/elektrikeren. Men som nævnt: det havde været bedre med en seriøs artikel.

  • 10
  • 1
Gordon Flemming

Jan,

Kommentarerne, og måske artiklen, synes skrevet af it folk. Det her er et stærkstrømsproblem.

Hvorfor antager du at alle it-folk ikke har forstand på stærkstrøm? Stærkstrøm var da engang en del af pensumet hvis man ville være noget ved EDB-musikken. Jeg holder da personligt meget af stærkstrøm, jeg ville faktisk hellere designe og bygge switchmode strømforsyninger end at programificere.

  • 1
  • 6
Gordon Flemming

Knud,

I øvrigt: At man ikke kan indkoble generatoren til et system der er forsynet over en UPS er mig ubegribelig og må tilskrives manglende indsigt i systemets opbygning af operatørerne/elektrikeren

Hvis du ser på hændelsesforløbet, så var UPS'ens batteri allerede løbet tør for strøm inden elektrikerne nåede at dukke op, så det ville have være ligegyldigt.

Men som nævnt: det havde været bedre med en seriøs artikel.

Absolut, men det er ikke en artikel, det er en forhærligende successhistorie hvor alle er vindere, undtagen det stakkels relæ, som må stå tilbage med aben.

  • 3
  • 3
Tom Bøjland

Uden at kende den aktuelle installation - der hvor man oftest ser fejl i installationer hvor der er opsat et generatoranlæg med et simpelt ATS panel uden synkronisering, er netop at ATS panelet ikke skifter. Et god råd når man laver tavledesignet er at lave en bypass mulighed så man manuelt kan omgå et defekt ATS panel uden at man skal lukke datacentret ned - også under udskiftningen.

At der er noget der skulle eksplodere når man lægger byforsyningen ind igen er usandsynligt, da frekvensen på UPS anlæggets afgang blot synkroniseres ind til byforsyningen i løbet af en kort tid.

Et andet godt råd er - "fuld test" af sin generator installation - det er ikke nok bare at starte motoren op - man skal koble i nødstrøm ellers giver installationen en falsk tryghed - såfremt der ikke kobles har man jo sin UPS installation i drift.

Mht, en kommentar omkring at køre på batteri i 60 min. - tjah, det er de færreste datacentre der også har køle installationen på UPS, så i de fleste tilfælde vil der blive så varmt i datacentret, så driften alligevel skal lukkes ned.

  • 5
  • 0
Knud Høgh Knudsen

Gordon Flemming. Hvis UPS alligevel var død som det fremgår sker der jo intet ved at omkoble/bryde på netside og indkoble generatoren på (spændingsløst anlæg) UPS for at få gang i den igen. Men som skrevet: Jeg kender ikke nettet foran UPS. MEN en operatør med indsigt i systemet burde kunne gøre dette ubesværet. Problematikken er nok at mange systemer er kørende i mange år uden at blive testet, og der dermed opstår der en manglende viden om systemets opbygning og håndtering i fejlsituationer. Jeg er dog stadig ked af den løbende drøftelse af problematikken uden at have detail kendskab til fejlen. En opfølgende seriøs artikel vil være kærkommen.

  • 7
  • 0
Gordon Flemming

Knud,

Hvis UPS alligevel var død som det fremgår sker der jo intet ved at omkoble/bryde på netside og indkoble generatoren på (spændingsløst anlæg) UPS for at få gang i den igen.

Enig, men iflg. hændelsesforløbet gik der kun 20 min fra fejlen blev diagnosticeret til det nye relæ ankom, det ville tage lige så lang tid at afisolere et 40 kvadrat kabel og bypasse relæet, så det ville stort set være formålsløst i den situation.

MEN en operatør med indsigt i systemet burde kunne gøre dette ubesværet.

Ja, men teknikere i dag er begrænset til kun at udskifte moduler, og hvis man udviser initiativ så bliver man fyret for ikke at følge procedurer.

  • 1
  • 4
Gordon Flemming

Tom,

der hvor man oftest ser fejl i installationer hvor der er opsat et generatoranlæg med et simpelt ATS panel uden synkronisering, er netop at ATS panelet ikke skifter.

Jeg tror ikke det er et "simpelt" panel, problemet forværres af, at, der sikkert er en microcontroller med noget middelmådigt software indbygget i relæet. Man kan jo næsten bygge et helt datacenter alene med dimser der kan monteres på en DIN skinne.

  • 0
  • 4
Knud Høgh Knudsen

Gordon. Hvis plasticdimsen er et relæ med tilledninger på 40 mm2 så taler vi nok i stedet om hovedkontaktoren fra DG settet, og ikke "en plasticdel til få hundrede kroner" som der står i overskriften til artiklen. Som skrevet tidligere: Fakta søges så vi kan få en seriøs drøftelse af forsyningsproblematikken til datacentre som er så essentielle for samfundsstrukturen i dag.

  • 8
  • 0
Gordon Flemming

Knud,

Som skrevet tidligere: Fakta søges så vi kan få en seriøs drøftelse af forsyningsproblematikken til datacentre som er så essentielle for samfundsstrukturen i dag.

Enig, men det er nok for meget at håbe på, sagen er allerede blevet belyst med mørkelygten. Og det hele var relæets skyld, det er vist det man kalder for eksternalisering i Freudiansk terminologi.

  • 1
  • 4
Tom Bøjland

Gordon

Der er generelt kun 2 måder hvorledes du laver generatorinstallationer på - den mest anvendte i mindre DC er vha. et ATS panel uden synkronisering med nettet - og den indeholder nu altså både hvad du kalder for middelmådig software og en controller :-) dertil kommer et par kontaktorer samt et fasebrudsrelæ, et display, nogle lamper, og klemmer samt en kasse til at have hele molevitten i.

En større installation har du typisk bygget ovenstående ind i en tavle plus en styring af omdrejningerne på motoren således at du kan synkronisere den ind med med forsyningsnettet så du kan lave en blinkfri tilbagekobling eller lade den køre parallelt med nettet hvis du er i tvivl om forsyningssikkerheden.

  • 4
  • 0
Gordon Flemming

Tom,

Tak for din uddybning, men det var vist også det jeg sagde, bare i lægmandstermer.

Jeg påstod/spurgte også, at hvis man nu som udgangspunkt har valgt low-cost løsningen, hvorfor så ikke gå oldschool og koble bystrømmen til relæspolen på et oldschool relæ, og lade UPS'en tage sig af blinkeriet? Der er da ingen grund til at bruge en mikroprofessor til at styre relæet i denne situation, og det vil jo altid virke så længe der ikke er svigt på relæet, som har en elektrisk MTBF på 100.000 operationer, og en mekanisk MTBF på op til flere millioner operationer.

Det kan være du har en mening om det?

  • 0
  • 2
Tom Bøjland

Gordon

Styringen er udført således at motoren kan komme op i omdrejninger før du lægger lasten ind - altså lidt ligesom at du heller ikke får et særligt godt resultat ud af at dreje startnøglen på din bil mens den står i 6 gear. - typisk kobler man over efter 30-60 sek. - generatoren er oppe på sine 1500 omdrejninger efter 5-10 sek for et mindre anlæg.

Når man går tilbage fra generatordrift til byforsyningen, så laver man typisk en afbrydelse på 4-8 sek. således køleanlæg/styring dertil kan blive helt afbrudt og derefter komme fejlfrit igang igen.

Så man slipper altså ikke helt for både software og controller i skidtet.

  • 5
  • 0
Bent Jensen

Man kunne vel have fjernet EL nettet helt, også kørt på generator til dimsen og fejlen var fundet. Men når man står i en stress situation. så er det ikke ment. Og denne løsning have måske ikke virket, hvis der var andre ting som fejlet eller ikke virket. Det fandt man jo først ud af under fejlfinding.

Som når man skal finde fejlen når en sikring springer. Så kobler man jo ikke bare hovedløs til, hvis man ikke ved, at det var ens skrugetrækker som lavet en lysbugge.

Synes det er flot at melde ud, også over for kunderne, ikke bare at give en trailer som kørte ind i et skab skylden. Men lidt mere teknisk indsigt til dem som kan bruge sådan i dagligt dagen ville klæde version2. Hvad type af hardware have de, og hvorfor en dims til 200,- kr. skal man købe til lager, hvis man har en sådan UPS dims som UnoEuro

  • 6
  • 0
Gordon Flemming

Tom,

Det er muligt - forholder mig blot til hvad de forskellige leverandører i DK leverer fix og færdigt af paneler - ikke noget jeg bygger :-)

Nårh ja, det er jo sådan tingene fungerer i dag, men hvis du kender nogen der vil have et low-cost fail-safe panel til deres Genset, så vil jeg da gerne bygge det for dem, det kunne være interessant.

Men baseret på min begrænsede erfaring, kan de fleste fejl i en sådan installation undgås hvis D&V dok. været på plads og fulgt.

Tja, der er jo mange fejl der kan undgås med D&V dokumentation, det gælder for alle produkter og installtioner. Men 1 erfaren elektriker med et 20 kroners multimeter burde kunne lokalisere denne fejl på 5 minutter: Gensettet kører, men der kommer ikke noget strøm ud, hmmm.....

  • 3
  • 0
Ivan Skytte Jørgensen

Det er beskæmmende at et fagblad viderebefordrer "plasticdims" betegnelse for en fejlramt komponent.

Ja, jeg synes at niveauet skal hæves. Det må antages at læserne her er interesserede i de specifikke tekniske detaljer - selv hvis man ikke i første omgang forstår det (så kan man jo blive klogere). Det virker til at CTOen er vant til forklare for almindelige døde "Der var en fejl. Det er rettet nu". Det synes jeg ikke man skal klandre ham for, men intervieweren burde have udfrittet ham om detaljerne, givet at læserskaren her ikke ville være tilfreds med "dims".

  • 1
  • 0
Morten Borg

De snakker en del om redundans, men faktum er jo at deres setup ikke er redundant. Servere, routere m.v. har 2 separate strømforsyninger og strømmen til disse skal naturligvis komme fra 2 HELT uafhængige strømkilder, hvilket ikke har været tilfældet.

Det er naturligvis et økonomisk spørgsmål - og når jeg som kunde betaler omkring 10 kroner om måneden kan jeg leve med det.

Men jeg synes det for dem bør være en ret væsentlig overvejelse om man ikke skulle vælge et større datacenter hvor man lejer sig ind når man måske ikke helt har den økonomiske kapacitet til at gøre det 100% ordentligt.

  • 3
  • 1
Asbjørn Jensen
  1. UPS strategi var ikke lavest risk, havde UPS en været on line ville fejlen nok kun vise sig ved samtidig NET fejl og UPS fejl
  2. Manglende test. Anlæg der ikke testes vil fejle når det er mest ubelejligt.
  3. fejlen ville dog næppe blive eksplosion. se nedenfor

Meget tankevækkende at se de samme fejl igen. Det er ca. 30 år siden jeg publicerede tilsvarende fejl på københavnske hospitaler. Her var problemet ikke eksplosion men at anlæggenes indkobling i "modfase" medførte så stor belastning af de elektromekaniske maskiner at viklingerne blev revet ud efter en periode (ikke første gang), samt vagabonderende "jordstrømme" som dræbte følsomme instrumenter.

  • 1
  • 0
Ulrik Pedersen

Morten selvom Unoeuro umiddelbart lyder som en discount butik så bedrager skindet.

Brandet Unoeuro bruges udelukkende til at sælge Zitcoms højst professionelle services til private og mindre virksomheder, naturligvis med begrænset support - deraf prisen.

Jeg benytter mig selv af Zitcoms entreprise/business løsninger via både Wannafind og Curanet. Supporten er helt i top, og teknikkerne svarer da også på mine henvendelser (afhængig af alvorligheden) klokken 02.00 lørdag nat. Et besøg hos Zitcoms lokation i Skanderborg har da også bekræftet mig i at det er langt mere end en simpel slikbutik.

Så den med at skulle vælge en mere seriøs leverandør til Unoeuros servere er altså skudt helt ved siden af - de hoster alt selv, på noget seriøst jern.

  • 9
  • 0
Michael Fjeldsted

de hoster alt selv, på noget seriøst jern

Men det ændrer ikke ved at de ikke har 2 uafhængige strøm linier i datacenteret, som de fx har med netværk.

Det ændrer heller ikke ved at de havde begge deres dns servere i samme datacenter.

Deres kontor (jeg har været der) udstråler helt sikkert seriøsitet, men tager man over på den anden side af vejen i deres datacenter (jeg har også været der), så opdager man at det er en ombygget Villa som agerer datacenter, så får man et indtryk af at de ikke er helt på højde den normale standard.

Næste gang er det måske deres køl kunderne opdager de ikke har redundant.

  • 3
  • 0
Mads Claus Henriksen

Bare fordi man har et set-up med UPS og Generator, så har man ikke nødvendigvis et datacenter. Jeg vil tillade mig at påstå, at man dårligt kan have noget man med rette kan kalde et datacenter på under 1 MW. Det er ikke fordi man ikke kan lave installationer, som man gør i store 'rigtige' datacentre. Men man kan ikke have den kritiske masse, der skal til for at have den driftskritiske Datacenter Facility Management knowhow in-house.

I Danmark er Critical Environment-volumen lille og datacenterdelmængden heraf endnu mindre. Det betyder at dem der designer og bygger Critical Environment installationer ved uendeligt lidt om Critical Environment-drift. Dem der derefter skal drive selve forsyningsmiljøet (el, køling og sikring) kommer oftest med en IT-baggrund. Dvs. at disse ellers gode og dygtige mennesker ikke ved, hvordan de skal drive forsyningsmiljøet optimalt. Hvis der sker noget uventet (og det gør der), så har staklerne sjældent en chance for at redde dagen.

I design-/indkøbsfasen har den danske Critical Environment-kunde sjældent begreb om, hvor fokus skal lægges for at få den oppetid som forretningen reelt har brug for.

Det lyder som om at den nævnte case, på en god dag kan sammenlignes med et Uptime Institute Tier I set-up. Det betyder at man skal imødese en årlig nedetid (server nedetid) på henved 29 timer - en betydelig del heraf som uvarslet nedbrud, på det mest kritiske tidspunkt. Jeg tvivler på at denne forudsigelige performance er signet af med Forretningen.

Slutteligt 3 gode råd: 1. Test så realistisk som muligt. Dvs. sluk for bystrømmen og iagttag, hvad der sker. Afbryd ventilatoren på en kølekondensator og se hvad ser sker.... 2. Forbered de ti mest oplagte fejlscenarier. Analyser og beskskriv, hvorledes disse håndteres. Træn scenarierne igen og igen - først som table-top-øvelser, derefter som simulerede øvelser i forsyningsmiljøet og sidst men ikke mindst som rigtige øvelser, hvor man fremprovokerer scenarierne i live-miljøet. Dette skal selvsagt gøres med alle personer i Critical Environment teamet. 3. Husk at designe Critical Environment-miljøer til forretningens kommende krav - her er strategisk tænkning for engang skyld ikke bare en gang 6. sals fluff. Forsyningsinfrastrukturen lever mange flere år end man normalt er vant til i IT-branchen. Dvs. at hvad der engang var tilstrækkeligt sjældent lever op til de krav forretningen stiller pt.

BTW - jeg skal lige have kigget mine kravspecifikationer igennem, så mine plasticdimser for fremtiden lever op forretningens behov.

  • 3
  • 0
Baldur Norddahl

Kom lidt ned på jorden igen. Vi har udstyr stående på TDCs centraler. Det er bygninger der fungerer som datacentre, men de lever på ingen måde op til dine idealer. Der er -48V DC strøm med UPS men det er ikke redundant. Der er frikøleanlæg (kæmpe blæsere) men ingen aircon. Alligevel har jeg endnu ikke oplevet et sekund nedetid på tværs af mange centraler.

Modsat så har vi lige haft en afbrydelse på B-feed i vores rack i et af Danmarks absolute største og mest professionelle datacenter.

  • 6
  • 0
Morten Borg

Så den med at skulle vælge en mere seriøs leverandør til Unoeuros servere er altså skudt helt ved siden af - de hoster alt selv, på noget seriøst jern.

Jeg er godt bekendt med deres forretning og ved udmærket at jeg kun bruger deres absolutte discount produkt - som er ganske udmærket til private småbehov for mig. Jeg kan sagtens leve med lidt nedetid på det og synes i øvrigt deres produkt er glimrende.

Min pointe var såmænd blot at hvis man vil drive et datacenter til UG så kræver det nogle meget store investeringer - og der er det måske mere økonomisk og driftmæssigt optimalt at dele en række af disse grundlæggende faciliteter med andre.

  • 1
  • 0
Rud W. Wichmann

Jeg tør vædde 10 kasser røgede sild på, at det paphoved, som har stået for installation af omtalte datacenters "modul" ikke har testet "overgravet kabel" - altså total nedbrud af hovedforsyningen for så måtte den angivne fejltype jo logisk været afdækket tidligere.

Men det får man vel aldrig CTO for UnoEuro til at indrømme over for kunderne.

  • 4
  • 1
Claus Bobjerg Juul

Forstår hvad du mener, men det hedder altså N+1, for hvis du bare har 2 generatorer og der hver især kun kan trække 75% af læsset, vil det betyde at hvis en generator sætter ud, så vil generator #2 blive overbelastet og svigte også.

  • 0
  • 0
Michael Hartvig
  • 1
  • 0
Log ind eller Opret konto for at kommentere