Virksomheder virtualiserer kun 39 procent af datacentret

Flere virksomheder er stadig tilbageholdende med at virtualisere større dele af deres datacenter. En ny engelsk undersøgelse viser, at det i gennemsnit kun er 39 procent af datacentret, som er virtualiseret.

En undersøgelse fra Storbritannien viser, at virksomheder, som gør brug af virtualisering, i gennemsnit kun har virtualiseret 39 procent af deres datacenter. Selv om datacentre aldrig kan blive fuldt virtualiseret af hensyn til blandt andet databaser og transaktionssystemer, er dette tal relativt lavt.

Ifølge Charles Babcock fra InformationWeek efterlader det lave tal rigelig plads til at migrere flere af de energitunge x86-arbejdsheste i serverrummet med den virtuelle host. En proces, der oftest også giver mulighed for at udfase flere fysiske servere.

Desuden viste resultatet af undersøgelsen, at virksomhederne gennemsnitligt kun havde seks vurtualiserede maskiner per fysiske server, hvilket ifølge Charles Babcock er mindre end det maksimale.

Som eksempel fortæller han, at en leverandør som Accenture er i stand til at presse 20-30 virtuelle maskiner ud af de seneste versioner af Intels multi-kerne servere. Men de fleste er ikke interesserede i de højtydende servere - primært fordi det kræver stor erfaring at kunne forudse og administrere eventuelle flaskehalse, som de mange applikationer i systemet kan skabe.

Undersøgelsen blev foretaget blandt 554 større virksomheder fordelt over USA, Storbritannien, Tyskland og Frankrig med mere end 1.000 medarbejdere.

Læs mere om undersøgelsen her.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Kommentarer (6)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Jesper Dahl Nyerup

Virtualisering giver mening til applikationer af lav intensitet, eller med dynamisk arbejdsbyrde, som komplimenterer andre systemer.

»En server« er ikke en normalenhed, som dygtige folk lægger 30 af på et stykke hardware, mindre dygtige lægger 6 af, og dumme folk slet ikke virtualiserer.

En server, fysisk eller virtuel, bør afbalanceres bedst muligt mellem ressourcebehov og ressourceforbrug, og denne overvejelse skal i reglen funderes på serverapplikationens natur, i forhold til brugsmønster, -byrde og arkitektur.

  • 2
  • 0
Thomas Hagedorn

Må sukke dybt over at læse det vrøvl Charles Babcock skriver..

"Datacenteret bliver aldrig 100% virtualiseret"..??

Nå, ja men så ved vi jo det.. har han også de 7 rigtige lottotal til næste uger eller hvad?

De nye release info om VMware vSphere 5.0 siger fks.: VM'er med op til 32 vCPUs og 1 TB RAM det kommer jeg nu pænt langt med idag..

Nu har jeg udelukkende arbejdet med virtualisering på x86 siden 2001 og som jesper helt rigtigt beskriver, kommer det jo an på... (iøvrigt mit standard svar når folk forsøger at få den type eksakte svar på komplekse spørgsmål) Og inden for virtualisering er der endda rigtigt mange faktore, hvilket selvfølgeligt kan gøre det ekstremt komlekst. Så også at tale om at 6 er lavt og 30 er bedre er netop totalt nonsens... Manden aner jo helt tydeligvis ikke hvad han skriver om..;-)

Jeg synes altså der er en tendens til at medier videreformidler inkompetent information, og specielt omkring virtualisering virker "niveauet" altså en anelse lavt, så kom nu ind i kampen version 2 og få sat nogle kompetente mennesker til at vurdere indholdet, inden i bare sender det råt videre..

  • 0
  • 0
Daniel Udsen

Virtualisering er et workaround til det problem at visse services kræver en fuld server selvom der ikke bruges ret mange clock cycler, det er ikke alle applikationer der har det problem.

Et eksempel kunne værre en webfarm hvor et to eller tre cifret antal noder servicere samme side, at smide virtualisering med 30 noder pr server ind i sådant et setup er vel ikke ligefrem en god ide, og det samme gælder vel for en masse distribuerede systemer der faktisk er under load meget af tiden.

Virtualisering er heller ikke den eneste og enegyldigt bedste måde at dele server resourcer mellem applikationer, de forskellige "resource partitioning" eller "jail" miljøer til unix har f.eks. langt mindre overhead, og i situationer hvor brugerkonti realt er seperation nok så kan man slippe næsten helt for overhead, det er f.eks. sådan mange webhosts og cloud service udbydere operere deres datacenter.

20% overhead betyder noget når ting skaleres opad.

  • 0
  • 0
Kristian Vilmann

Daniel, Enig - Det er som Jesper siger: "En server, fysisk eller virtuel, bør afbalanceres bedst muligt mellem ressourcebehov og ressourceforbrug, og denne overvejelse skal i reglen funderes på serverapplikationens natur, i forhold til brugsmønster, -byrde og arkitektur."

Dine betragtninger om UNIX-jails er jeg i et eller andet omfang enig i. Det er bare ikke særlig anvendeligt når hele serverrummet kører Windows. Og jeg tør slet ikke sætte procentsatser på.....

  • 0
  • 0
Casper Kvan Clausen

Nu er overheadet langt under 20% på stort jern med de nyeste hypervisors og fornuftigt netværk/SAN - snarere <= 5%, når man har fundet sweet spots mht. RAM/core og vCPU/core for sit load. Men bortset fra det er der andre betragtninger end applikationens load-profil, der kan gøre sig gældende: systemadministration (specielt delegering og centraliseret adgangskontrol), OS-uafhængig HA, snapshot og backup, chargeback-modeller osv. I mange tilfælde kan de fordele opveje et eventuelt performancetab - som i øvrigt ofte viser sig at være mindre end forventet.

Det kan være ganske underholdende at bede leverandører, hvis software i HVERT fald kræver en fysisk server, måle performance på en nyinstallation, og så efterfølgende afsløre at de pæne tal faktisk er leveret af en virtuel server.

  • 0
  • 0
Log ind eller Opret konto for at kommentere