100 gigabit-netværk kan dræbe serveren som vi kender den

En kasse med RAM, én med processorer, én med storage og endnu én til at håndtere al datatrafik. Sådan kan serveren fremover blive splittet ad for at blive mere effektiv ifølge Intel.

Der bliver brugt meget plads på komponenter i servere, som går igen, fordi hver server eksempelvis skal have sine egne hukommelsesmoduler. Men lynhurtige optiske kredsløb kan ændre den opbygning fuldstændig. Det skriver Ars Technica.

Der er allerede initiativer på vej til at lade udstyret i især større datacentre dele flere komponenter. Det ses i eksempelvis HP's nye Moonshot-serversystem, men også Facebook har taget initiativ til Open Compute-projektet.

Læs også: Intel og Facebook vil atomisere serveren i racket

Dét projekt involverer også Intel, som imidlertid har planer om at bruge den siliciumfotonik-teknologi, som er under udvikling, der kan give hastigheder på 100 gigabit/s med meget små forsinkelser over større afstande end elektriske forbindelser.

Det vil Intel udnytte til at designe systemer, hvor eksempelvis processorer og hukommelse skilles ad i stedet for at sidde på det samme serverprintkort.

Tanken er, at man både kan udnytte pladsen mere effektivt med rack-moduler, der kun indeholder RAM, også samtidig udnytte ressourcerne bedre ved at lade processorerne deles om én stor pulje hukommelse.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Kommentarer (8)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Johnnie Hougaard Nielsen

Jeg husker dengang der ofte var flere meter tykt kabel mellem processor og RAM, på grund af den fysiske størrelse. IBM måtte i en af deres hurtigste mainframes bygge en memory-klods (som et køkkenskab) på siden af det noget større skab med processor, fordi det ellers tog for lang tid for signalerne at komme frem.

Det smarte ved at opdele i RAM og CPU moduler falder også med nutidens hastigheder med afstanden. Afhængig af fibertype, kræver det et nanosekund for lyset at bevæge sig gennem 20-30 cm fiber, eller bare luft. Derudover kræver det koordinering (og overhead) at lade mange CPU deles om samme klods RAM, især hvis de har lov til at have hver deres lokale cache.

  • 3
  • 0
Chris Bagge

Et elektromagnetisk signal, kan stadigvæk ikke bevæge sig hurtigere end 300 m/usek. Når man skal tilgå eksterne enheder, så er det ofte svartiden der er det afgørende. Ved en afstand på 30 cm er udbredelsestiden minimum 1 ns som skrevet ovenfor. Det er hurtigere end gennem et print, men at flytte hukommelse over i en anden kasse virker ikke som en smart ide.

  • 2
  • 0
Claus Jacobsen

Det her har nu været "hverdag" i et par år nu. Dog med en liiidt mindre hastighed mellem noderne, idet der har været brugt 40Gbit infiniband teknologi i stedet indtil nu. Det er en nødvendighed for clustre der skal køre in-memory databaser, og er den måde man bygger en SAP-HANA database(her har cisco allerede infrastrukturen indbygget. De andre er nødt til at efterudstyre deres infrastruktur, men kommer op på niveau med Cisco når det for alvor kommer ud og bliver bygget ind i systemerne)

Vi er ikke på "printniveau" endnu, og kommer det selvfølgelig heller ikke, men det drejer sådan set bare om at minimere wait-cycles i cpu'erne. Indtil nu har det været et ret stort problem at skalere ud i større skala. Det hjælper den her teknologi med. Vi kan bygge nok så store servere, men massiv skalering ud har været et meget stort problem for meget store databaser. Blandt andet IBM og HP har haft nogle systemer der kunne lave "scale out" i begrænset omfang (den gamle x3850 m1 og 2 eksempelvis kunne skalere ud til 4 servere, men så gik den heller ikke rigtigt længere)

Mainframes som vi kender dem er nok en temmelig døende race. Specialbygget udstyr til ultraspecifikke formål er så småt ved at dø ud. Det er infrastrukturen fra de helt store datacentre som facebook, google og MS som dikterer udviklingen, og de laver det hele på standardkomponenter købt direkte i kina. Prismæssigt er der desværre ingen mainframe-producent der kan være med der.

  • 1
  • 0
Maciej Szeliga

Specialbygget udstyr til ultraspecifikke formål er så småt ved at dø ud. Det er infrastrukturen fra de helt store datacentre som facebook, google...

Sjovt at du nævner lige præcis de to som eksempel på at specialiserede løsninger er ved at dø ud... Google laver både egne helt specielle servere og også switche, Facebook har også nævnt at de ville lave egne servere.

  • 1
  • 0
Claus Jacobsen

Jeg har muligvis forklaret det forkert. - Facebooks "standard" er helt åben og lige netop facebooks version er faktisk årsagen til at Intel har udviklet silicon photonics. - Designet er frigivet til the opencompute project som netop er facebooks datacenter infrastruktur. - Du har dog ret i at deres ikke kan købes fra hylden - med mindre ordren er stor nok. :-) Men det er stadig "hyldevarer" idet de fleste komponenter er standardiserede (igen google leger jo en del med tanken om at bygge deres egne cpu'er nu baseret på arm) Men faktum er at det er deres infrastruktur der driver udviklingen. hele SDDC konceptet, stort set alt hvad vmware, microsoft et. al. udvikler på i øjeblikket, baserer sig på at skulle kunne køre på "standardjern" og skalere massivt ud så man får oppetiden fra mainframes. Google, facebook og microsoft kører stadig på en helt alm X86/x64 platform, men når man eksempelvis skal bruge 500000 bundkort, får man selvfølgelig visse friheder og producenterne giver selvfølgelig også lidt "særlig kundepleje" :)

Hvis ikke man tilhører Nasa, så skal der såmænd ikke meget mere end 10.000-100.000 enheder til før de kan lave en speciallinje for den enkelte kunde. (og nasa er lige kommet ind i Pentium alderen. - dog er den gamle regnefejl fjernet nu. :-) )

  • 0
  • 0
Jesper Poulsen

Mainframes som vi kender dem er nok en temmelig døende race. Specialbygget udstyr til ultraspecifikke formål er så småt ved at dø ud.

Mainframen har ikke været specialbygget udstyr til ultraspecifikke formål i mange år. En System z kan levere nøjagtigt de samme services som en hvilken som helst anden server, bare med en bedre oppetid i baghånden. Den er oven i købet endnu bedre til virtualisering end diverse løsninger baseret på x86-familien.

  • 1
  • 0
Log ind eller Opret konto for at kommentere