25.000 virtuelle desktoppe i Region H kræver 100 pct. SSD i serverne

6. marts 2013 kl. 06:2912
25.000 virtuelle desktoppe i Region H kræver 100 pct. SSD i serverne
Illustration: Tinie W. Rasmussen.
Med op til over 25.000 brugere er Region Hovedstadens virtuelle desktop-miljø et af de største i verden. Her kan du læse, hvordan det er sat sammen.
Artiklen er ældre end 30 dage
Manglende links i teksten kan sandsynligvis findes i bunden af artiklen.

Læger, sygeplejersker og andet klinisk personale på sygehusene i Region Hovedstaden har fået mulighed for at slippe for den almindelige pc og i stedet bruge en virtuel desktop, som kan hjælpe med at nedbringe den tid, personalet hver dag bruger på at logge ind og ud af it-systemer.

Det er dog ingen let opgave at levere virtuelle desktoppe til mere end 25.000 brugere, og det kræver en stor hardware- og softwareopsætning i datacentrene.

Chef for Projekt- og Implementeringsenheden i Region Hovedstaden, Niels Reichstein Larsen, fortæller her om opbygningen af infrastrukturen i datacentrene til regionens virtuelle desktoppe.

Hvordan ser jeres setup ud på datacentersiden?

Artiklen fortsætter efter annoncen

»Løsningen er opdelt på to driftscentre, hvor der i hvert driftscenter er én blok til management og fem datablokke,« siger Niels Reichstein Larsen til Version2.

Management-blokkene består af 21 forskellige virtuelle servere, som nu kører på VMware ESXi 5.0, men først kørte på version 4.1, da systemet blev etableret. Den underliggende hardware er M610 blade-servere fra Dell.

»De fem datablokke, som afvikler applikationerne og de virtuelle desktoppe, kører ligeledes med VMware ESXi med vSphere Cluster ovenpå og styres ved hjælp af VMware vCenter. Klienterne benytter VMware View.«

Hvordan har I lavet redundans og failover internt i datacentrene?

Artiklen fortsætter efter annoncen

»Alle komponenter i hvert datacenter er dubleret, og failover er indbygget. Det gælder både det interne net mellem SAN og servere og ud til Region H's backbone.«

»Serverne er fuldt redundante og baseret på ESXi's automatiske failover-funktionalitet. Den eneste enhed, der ikke er dubleret internt i datacenteret, er chassiset, som serverne i management-blokken er monteret i. Hvis det fejler, så flyttes funktionaliteten til det andet datacenter.«

Hvordan laver I failover mellem datacentrene?

»Failover mellem datacentrene håndteres via CNAME-records. Lige pt. er der afdækning i gang omkring implementering af en loadbalancer-løsning, som sandsynligvis vil blive baseret på F5, men det er endnu ikke fuldt afklaret.«

Hvordan håndterer I problemer som 'boot storm'?

»Det korte svar er masser af IOPS og SSD-diske! Vi har fulgt VMwares design-guidelines og designstandarder og har der igennem fået beregnet de designs, som imødegår blandt andet bootstorms.«

»Rent praktisk har det vist sig, at brugerne logger på fordelt over tid, og altså ikke alle sammen samtidigt.«

En 'boot storm' dækker over problemet med, at der kan opstå meget store spidsbelastninger på både netværket og storagesystemet, når mange brugere logger på samtidig, sådan som det eksempelvis kan ske, når medarbejderne møder på arbejdet eller vender tilbage fra frokostpause.

Artiklen fortsætter efter annoncen

»I forbindelse med klargøring af desktoppe til klinikerne sørger vi for, at der altid er et lille overhead, således at der altid ligger en konfigureret desktop klar til den næste bruger, der logger på.«

Har I gjort jer nogen erfaringer i forhold til, hvordan I bedst bygger det op?

»Ja! Vi har fået en del erfaringer og viden, som vi gerne ville have haft tidligere i forløbet.«

»Vi har som en del af opgraderingen til VMware View 5.1 og ESXi 5.0 valgt at genopbygge den fysiske sammensætning af miljøet for mere optimal udnyttelse af SAN og servere. Blandt andet er datablokkene nu udelukkende bestykket med SSD-diske.«

12 kommentarer.  Hop til debatten
Denne artikel er gratis...

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.

Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.

Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.

Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.

Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
12
6. marts 2013 kl. 21:36

Lyder som et setup der har været rigtigt spændende at arbejde med, og garanteret et prestigeprojekt for en håndfuld personer.

Hvordan er slutbruger oplevelsen? Spiller det rent faktisk?

10
6. marts 2013 kl. 13:59

I servere til virtuelle desktops er harddisk ydelsen den begrænsende faktor for den ydelse som brugerne oplever. Det er den selvfølgelig også på almindelige PCer, men forestil dig at 25.000 PCer bruger det samme set af harddiske. Man kan spare på RAM og på diskplads ved at deduplikerer. CPU er ikke rigtig noget problem. Men disksystemets hastighed er den begrænsende faktor for hvor mange virtuelle desktoppe man kan tillade sig at have kørende før det føles ustabilt.

Så hvis du sætter virtuelle skriveborde op, så er det ikke på disksystemet du skal sparer. Det kommer bare til at koste et andet sted.

9
6. marts 2013 kl. 12:24

Når man lige har læst, at en meget stor del af SSD'er selv af executive typen kan bryde sammen på grund af noget så forventeligt som en strømafbrydelse, kan det her godt få det til at løbe koldt ned ad ryggen på mig.

5
6. marts 2013 kl. 10:00

Det ser super godt ud, det må havde været en stor udfordring, 25.000 desktops er vildt mange virtuelle instanser ;-)

2
6. marts 2013 kl. 09:36

I:

https://www.version2.dk/artikel/superhurtig-flash-storage-fjerner-flaskehalse-48000-virtuelle-desktoppe-46134

Kan man f.eks. læse at:

...Og når en Windows-desktop booter, er cirka halvdelen af diskoperationer skrivninger...

Er det så det rigtige valg? og hvorfor har skribenten ikke stillet det spørgsmål?

Udover alt det fancy server hardware har de jo stadig utrolig mange desktop maskiner der stadig skal køre... administrativt har de selvfølgelig den fordel at de kan give alle brugere samme desktop -- men så ryger anvendeligheden, se f.eks. Svends indlæg:

https://www.version2.dk/artikel/faa-bruger-gigantisk-virtuel-desktop-loesning-paa-koebenhavnske-sygehuse-49875#comment-225884

3
6. marts 2013 kl. 09:42

Der er normalt to muligheder når man vælger denne løsning, lade de gamle maskiner køre til de går i stykker, det er gratis, eller skifte det hele ud med fancy thin clients. Det første er klart det billigste, så kan man altid have en ny tynd klient på lager der kan sættes op på få minutter når den gamle stridshest stiller (heste)skoene :)

6
6. marts 2013 kl. 10:14

Der er normalt to muligheder når man vælger denne løsning

Og det er så spørgsmålet om denne løsning løser de problemer den er sat i verden for at løse. Sådan som jeg forstår en læge/sygeplejerskes arbejdsdag ville de være lykkelige for en installation lignende G-barens SunRay maskiner tilbage i '98 da jeg gik på DTU. Et id-kort + password og du flytter din desktop med dig rundt -- det tog under 1 sekund at komme til sine data. Bemærk årstallet... det er 15 år siden; og UNI-C håndterede rigtig mange desktops -- hardwaren var selvfølgelig OK -- men det setup der beskrives her er jo pervers i sammenligning.

Ydermere har Regionen valgt den laveste form for single sign on... nemlig et dumt password register; se:

https://www.version2.dk/artikel/snart-skal-25500-laeger-og-sygeplejersker-i-hovedstaden-kun-huske-1-kodeord-48819

Sådan som jeg har forstået løsningen afspiller den sekvenser med dit brugernavn/password mod diverse systemer, og når dit password udløber, så passer sekvensen ikke - og du skal selv finde ud af at opdatere det.

At kalde det for "single signon" er i mine øjne falsk varebetegnelse. Der er jo bare tale om et "password safe" med alle de problemer det giver. Igen kunne jeg spørge: hvorfor har skribenten ikke spurgt ind til det?

Jeg har ikke noget imod lappeløsninger -- men erkend det dog; hvis man spilder bare 30 sekunder 25.000 gange om dagen, så bliver det til kroner og ører og mindre tid til patienterne når dagen er om.

4
6. marts 2013 kl. 09:54

Det første er ikke nødvendigvis billigst. Fordi de fleste klienter står tændt 24/7, bidrager de tynde klenter til besparelsen igennem et lavere effektforbrug.

7
6. marts 2013 kl. 10:21

Det første er ikke nødvendigvis billigst. Fordi de fleste klienter står tændt 24/7, bidrager de tynde klenter til besparelsen igennem et lavere effektforbrug.

Lad os lige få jaget en tyk pæl gennem den myte.

Miljømæssigt er det, ud fra en LCA betragtning, altid det bedste IKKE at skifte en maskine før den ikke længere kan tjene sit formål.

Og der findes vel snart set ikke nogen computere der ikke kan gå i dvale og sætte skærm i standby, så strømforbruget nedsættes væsentligt ved inaktivitet.

11
6. marts 2013 kl. 20:22

... men formålet med virtualiseringen er at begrænse ventetiden når personalet skal have adgang til systemerne. At sætte gamle PC'ere i dvaletilstand for at spare strøm, reducerer ikke ventetiden.

8
6. marts 2013 kl. 10:37

Skulle lige til at skrive det :) Ydermere vil de fleste vel boote på PXE, så der er heller ikke krav til forbundne harddiske, hvis vi endelig skal snakke strøm. 25000 x 10-15w har vel også sin ret :)

1
6. marts 2013 kl. 08:57

Er det overkill at gøre det samme med ca. 100 brugere? :P