Sponseret indhold

Kommentar: Datacentrene har ikke udviklet sig i 20 år

De helt basale byggeklodser i datacentret har ikke forandret sig de seneste 20 år - alligevel taler vi om det moderne softwaredefinerede datacenter. Nu ser det endelig ud til, at der sker noget.

Datacenteret er under konstant forandring, lyder det gang på gang på diverse seminarer, fra hardwareproducenterne og i rapporter fra analyseinstitutterne.

Men er det sandt?

En konstant forandring
Hvis vi tager et kig på de enkelte infrastrukturkomponenter, vores datacenter består af, er det svært at se, at der skulle være sket den store udvikling de seneste 15-20 år.

Der, hvor forandringen er sket og sker, er i måden, vi bruger vores datacenter på.

Bevares, serverne er blevet hurtigere, storage-medierne er blevet større, og netværket er blevet hurtigere, men ellers er der ikke sket meget på hardware-siden.

Så hvad er det, der gør, at vi alligevel oplever, at datacenteret er under konstant forandring? Det er alle de nye spillere på markedet, dem, som tør gøre det anderledes og udfordre ‘sådan plejer vi ikke at gøre’.

"En applikation, én fysisk server"
Hvis ikke VMware i starten af 00´erne var kommet med deres GSX og efterfølgende server-virtualiseringsprodukter, ville vi sikkert stadig leve underlagt mantraet: ‘En applikation, en fysisk server’.

Hvis ikke NetApp i midten af 00´erne var kommet med deres første versioner af ONTAP, og IBM var kommet med SVC med deres tanker om virtualisering af storage, ville vi sikkert stadig leve i en storage-monolitisk verden og i en skyfri verden med blå himmel, hvor ingen skulle høre om Private Cloud, Hybrid Cloud og Public Cloud.

Men lad os tage et kig på de tre infrastrukturelementer i vores datacenter og se på, hvad der gør, at vi på trods af den manglende udvikling på hardware-siden oplever, at vores datacenter er under konstant forandring.

Compute- eller serverdelen
Det er her, hvor vi har set mindst udvikling de seneste mange år. En x86-server er i dag opbygget på stort set samme måde som for 20 år siden. Vi har fået hurtigere processorer, plads til mere memory. Men principperne i opbygningen er den samme.

Så hvad er det, der gør, at der hele tiden kommer nye servere?

Vi er begyndt at se funktionaliteter flytte fra cpu og memory ud på andre enheder i systemet, såsom NVMe og off-load-adaptere som Nvidia GPU m.fl.

I næste generation af Intel-chipsettet vil vi få support for, at memory-moduler kan benyttes som datalagring på selve memory-bussen, samtidig med at vi endelig får taget skridtet fra 1 GB-netværk til 10/25 GB-netværk integreret på bundkortet, hvilket kommer til at stille helt nye krav til vores datacenter-switche.

En af de største forandringer på serverfronten har været Ciscos ankomst i markedet i 2009 med deres Unified Computing System (UCS), som gjorde det muligt at virtualisere de fysiske attributter, som vi normalt skal konfigurere på den enkelte enhed.

Dette gøres gennem Service Profiler, som styres og håndteres gennem UCS Manager, som samtidig også håndterer adaptere og netværksindstillinger i server-infrastrukturen, en helt ny måde at arbejde med compute-delen på i datacenteret.

Se video om serviceprofiler

Storagedelen
Denne del af datacentret er mest påvirket af, at vi ser storage blive software-defineret, hvilket betyder, at vi tilgår vores disk-kapacitet og udnytter denne gennem en intelligent brugergrænseflade, som gør os uafhængige af den underliggende hardware.

En udvikling, der er accelereret gennem nye spillere i markedet som Nutanix, Simplivity, Nimble og mange flere. Ser vi lidt fremad, vil nye datalagringsmedier som Flash og andre blot fremskynde denne proces, hvor kapacitet og performance ikke længere er en udfordring, som det traditionelt har været de seneste 10-15 år.

Fabric-siden
Her ser vi en rivende udvikling, efter at den har haltet noget efter resten af datacenteret. Tilstedeværelsen af nye spillere i dette marked har tvunget de få producenter, der traditionelt har styret Fabric-delen, til at gå nye veje og gøre det hurtigt, til gavn for datacenteret. VMware-opkøb af Nicira og lanceringen af deres softwaredefinerede netværk (NSX) har fremskyndet udviklingen fra såvel Ciscos side som Brocades side.

Samtidig ser vi, at begreber som unified fabric og muligheden for at virtualisere netværks- og storage-trafikken over den samme fabric gør, at vi nu kan udnytte de store båndbredder, der er blevet tilgængelige.

Udnyttelse af synergi
Med Converged Infrastruktur ses sammensmeltningen af de tre infrastrukturelementer til en samlet løsning i vores datacenter. Her begynder man at udnytte synergierne i udviklingen inden for hardwaren gennem en intelligent softwareløsning lagt på toppen af infrastrukturen.

De første platforme, vi ser inden for Converged Infrastruktur, er VCE Vblock (EMC storage, Cisco fabric og Cisco-servere) og FlexPod (NetApp storage, Cisco fabric og Cisco-servere).

Kendetegnet for disse er, at det stadig er forskellige producenter, som lægger hardware til, og at der så er skabt et fælles management- og provisioneringsværktøj på toppen, således at datacenteradministratoren oplever det som et samlet system. Se et eksempel på UCS Director og FlexPod her

Fremtidens løsning
For 4-5 år siden startede den seneste udvikling som kaldes HyperConververged Infrastruktur. Her blev compute og storage samlet i samme platform. I praksis et antal servere med masser af diske styret af et intelligent stykke software, der sammen med server-Hypervisoren skabte et virtuelt miljø.

På denne måde blev der skabt en løsning, hvor der også var styr på storage-delen gennem et virtualiseringslag. Senest på denne front har Cisco HyperFlex meldt sig på banen som den første platform, hvor netværket også er virtualiseret og er en integreret del af den HyperConverged-løsning. Som det fremgår af denne video, er der alle tre elementer tænkt ind i løsningen, og som noget helt unikt er det fra en og samme leverandør.

Så er det sandt, når producenter og analyseinstitutter siger, at datacenteret er under konstant forandring? Ja, det er sandt - det er dog ikke de traditionelle hardwareproducenter, som skaber forandringen.

Med Cisco UCS og HyperFlex har vi endelig fået nogle platforme, som er tilpasselige, uden at vi skal ændre en lang række fysiske parametre i vores infrastruktur, men har en platform, som gennem software kan ændres og tilpasses performance, workloads og applikationsafhængigheder efter behov.

Med andre ord: Vi har fået os et softwaredefineret datacenter, og det er her, vi er i dag, med Ciscos tilgang til det moderne datacenter, og hvor HyperFlex er det seneste skud på stammen, og hvor der med Ciscos Digital Network Architecture-strategi vil komme flere og flere nye løsninger til det moderne datacenter.