Gyldent image på SSD kan fjerne flaskehalsen for virtuelle desktoppe

9. november 2011 kl. 06:591
Storagesystemet er den største flaskehals for virtuelle desktoppe, men i stedet for at kaste et større system efter problemet, kan SSD, caching og Thin Provisioning hjælpe.
Artiklen er ældre end 30 dage
Manglende links i teksten kan sandsynligvis findes i bunden af artiklen.

FRANKFURT. De første udrulninger af den nye generation af den virtuelle desktop er undervejs, men især på storage-siden skal man tænke sig om, når man skruer sit system sammen.

»Storagesystemet er en potentiel flaskehals. Du er nødt til at have en infrastruktur på plads, som kan understøtte desktopvirtualisering,« siger chefanalytiker John Abbott fra 451 Group.

Den gamle model for desktop-virtualisering gav brugerne en terminal og afviklede applikationerne på en central server. I den nye generation for de såkaldte Virtual Desktop Infrastructure, eller VDI, bygger på at opbevare desktop-images centralt og indlæse dem til en klient.

Det giver brugeren en oplevelse, som minder mere om at bruge en fuld klient, men betyder også, at der skal flyttes meget data meget hurtigt, og det er der, hvor storage-systemet kan blive en flaskehals.

Artiklen fortsætter efter annoncen

»Du skal se på, hvordan du opbevarer dine desktop-images,« siger John Abbott.

20 gigabyte til Windows 7 er unødvendigt

I de først udrulninger valgte man ofte at bruge en én-til-én-lagring, så alle images lå fuldt på storage-systemet. Men da Microsoft anbefaler 20 gigabyte til et Windows 7-image, så er det ikke en særlig effektiv løsning.

»Microsoft anbefaler 20 gigabyte, men i praksis behøver du kun at have cirka seks gigabyte liggende i cachen,« siger chefstrateg Randy Kerns fra Evaluator Group.

Netop cache, hvor du enten fordeler kopier af de mest læste data over mange storage-enheder eller i DRAM-hukommelse, er en måde at løse problemet med images på, men det er kun en del af løsningen. Hvis man kombinerer det med Thin Provisioning kan man både spare diskplads og udnytte sin cache bedre.

Artiklen fortsætter efter annoncen

To brugeres Windows-desktoppe vil indeholde en masse af de samme data, som man ikke behøver at lagre flere kopier af. Ifølge Randy Kerns skal man dog ikke forvente at få ret meget ud af deduplikering af sine images, selvom man på den måde kun gemmer henvisninger til én enkelt kopi af dataene.

Hvis man skal spare diskplads er Thin Provisioning et bedre bud, fordi det gør det muligt at overallokere storage-kapacitet, så eksempelvis 200 images hver får tildelt 20 gigabyte, men reelt ikke fylder mere end den plads, de rent faktisk optager.

Skal brugerens skrivebord gemmes?

Men ifølge John Abbott skal man også overveje, om man vil bruge desktop-virtualisering, hvor hver bruger skal kunne gemme sit skrivebord, eller om det skal være en frisk kopi hver gang.

»Du kan spare en masse, hvis du kan slippe af sted med at give brugeren et friskt skrivebord hver gang. I hvert fald bør du adskille brugerprofilerne fra resten af systemet,« siger John Abbott.

Det forudsætter dog, at man har en plan for, hvordan man administrerer de såkaldte delta-images, man får ud af at arbejde med et såkaldt gyldent master-image. Der kan man få hjælp, hvis storage-systemet i forvejen understøtter Thin Provisioning, som giver et tilsvarende resultat.

Læg dit master-image på SSD

Under alle omstændigheder kan det være en god idé at have et master-image, men man skal være opmærksom på, hvordan det påvirkes, hvis mange brugere skal logge på samtidig, en såkaldt 'boot storm'.

»Du bør lægge dit gyldne master-image på SSD. Det bedste resultat opnår du med både en stor cache og SSD,« siger Randy Kerns.

Det ideelle er at bruge DRAM til cache, fordi det er suverænt hurtigst, men med SSD, eksempelvis i form af SSD som indstikskort direkte på PCIe-bussen, kan man også opnå en væsentlig forbedring af læse- og skrivehastighederne.

Artiklen fortsætter efter annoncen

Ud over master-imaget på en SSD kan man bruge kloning, eventuelt sammen med skrivbare snapshots, hvis man har valgt et storage-system, som understøtter det.

Svær forretningsmodel

Selvom storage-teknologierne allerede eksisterer, som kan løse problemerne ved desktopvirtualisering, så betyder det også, at man kan ende med en løsning, som bruger mere strøm og kræver mere storage-kapacitet, end man oprindeligt forventede.

Derfor er forretningsperspektivet ved desktopvirtualisering ikke lige så klokkeklart som konsolideringen af servere var det for servervirtualisering.

»Det, der taler for desktopvirtualisering, er eksempelvis, at man slippe for den her cyklus med at udskifte pc'er hvert tredje år. Et andet plus er sikkerheden,« siger John Abbott.

Til gengæld skal man som it-chef ikke regne med at få overbevidst den øverste ledelse om, at virtuelle desktoppe er en god idé alene ud fra det, der gør arbejdet nemmere for it-afdelingen, nemlig muligheden for at administrere alle brugernes desktoppe centralt.

»Jeg kan ikke understrege nok, at ingen har haft held med at bruge den centrale klientadministration som argument for virtuelle desktoppe,« siger Randy Kerns.

SNIA har betalt Version2's rejse- og opholdsudgifter i forbindelse med dækningen af SNW Europe 2011.

1 kommentar.  Hop til debatten
Denne artikel er gratis...

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.

Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.

Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.

Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.

Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
1
9. november 2011 kl. 13:00

Det er korrekt, at traditionelle VDI løsninger har et stort I/O behov som følge af boot storms og lignende, der oftest bliver undervurderet i designfasen. Det vil resultere i, at løsningen ikke performer, som den skal fra starten, hvilket betyder ekstra investeringer i storage performance.

Måden, hvorpå man kan slippe for disse ubehagelige overraskelser, er selvfølgelig at designe platformen til VDI løsningen med respekt for disse krav, og det behøver ikke at koste en formue. Hvis man udnytter ny teknologi, hvor man bygger en større cache ind i serverne, som der også nævnes i artiklen, eller hvis man via easy tiering udnytter de mange I/O’er fra få SSD diske på tværs af mange serveres storage, så bliver det mere økonomisk overkommeligt at lave en egnet platform til VDI. Der skal derfor ikke investeres i ret mange SSD diske for at afhjælpe problemet

Alternativt kan man benytte nyere generationer af VDI softwaren, som for eksempel Virtual Bridges, der leveres via IBM her i Danmark, og som har løst problemet via software kode. På den måde kræver det ikke så mange ressourcer at give at afvikle VDI med den rette performance.