Optimerede servere udfordrer x86-platformen: Flere kommer til at gøre som Google og Facebook

Den generiske x86-server får konkurrence fra servere, der er optimeret til én bestemt applikation. Google og Facebook gør det allerede, og det vil brede sig, vurderer Accenture.

Computerkraft på enorm skala er på vej væk fra rack efter rack fyldt med x86-servere, der kunne køre en vilkårlig applikation. Skal vi have fuldt udbytte af teknologien, så kan det betale sig at skræddersy serverne til de applikationer, der skal køre på dem.

»Vi ser hyperscale-tendensen i eksempelvis Googles datacentre, hvor der måske kører én million servere,« siger technology strategy manager Michael B. Jensen fra konsulentfirmaet Accenture til Version2.

Accenture har udnævnt hyperscale til at være én af de tendenser, som vil præge it-verdenen i de næste år. Det ses allerede hos store internetfirmaer som Google og Facebook, som har behov for computerkraft på meget stor skala.

Det indebærer, at infrastrukturen skal kunne skaleres og samtidig være meget robust, og det betyder også, at det kan betale sig at tilpasse serverne, så hardwaren er optimeret til lige præcis den type applikation, de skal køre.

Besparelserne kræver stor skala

Det kan lade sig gøre, fordi det sker på så stor skala, at besparelser i strøm og plads og gevinster i ydelsen eller køling kan opveje omkostningerne ved ikke blot at vælge en standardserver.

»Hardwaren kan optimeres til den applikation, du skal køre. IBM's Watson, der nu bruges til medicinsk forskning, er specialbygget hardware, som understøtter 'cognitive computing'. Den tilgang kan også være interessant i den finansielle sektor,« siger Michael B. Jensen.

I finansverdenen ses det allerede med in-memory-teknologierne, som kan gøre visse operationer i en applikation flere tusinde gange hurtigere i forhold til at manipulere data i RAM i stedet for på harddiske.

Det får ikke kun konsekvenser i maskinstuen, men også for den måde, virksomheden kan bruge teknologien på. En bank vil eksempelvis kunne foretage præcise låne- eller investeringsberegninger, mens rådgiveren taler med kunden, uden at skulle vente på en natlig batch-kørsel.

»Det betyder, at du skal genoverveje forretningsgangene, fordi du får muliggjort nogle procesændringer ved hjælp af it. Og den forandringsøvelse kan ofte være sværere at lave end at implementere SAP Hana, hvis man køber det som en servide,« siger Michael B. Jensen.

Brug special-servere i skyen

For mange virksomheder vil den specialiserede hardware til bestemte applikationer ikke nødvendigvis manifestere sig som indkøb af fysiske servere, men i første omgang som en valgmulighed hos de store cloud-udbydere.

Flere udbydere tilbyder allerede et bredere spektrum af konfigurationer til virtuelle servere, og det vil ifølge Michael B. Jensen også komme til at omfatte hardware, der er optimeret til bestemte typer applikationer.

»Jeg tror stadigvæk vi vil have en høj grad af generiske servere, men som cloud-bruger vil du i højere grad kunne sammensætte den service, du køber, og i nogle sammenhænge vil det være specialbygget hardware,« siger Michael B. Jensen.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Kommentarer (13)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Johnnie Hougaard Nielsen

Udviklingen mod "moderne mainframes" synes også at pege på at det ikke er nogen selvfølgelighed at det er x86 servere, hvis en mere effektiv arkitektur kan give et bedre forhold mellem pris, ydelse og strømforbrug. Konkret er der jo tegn på at Google, som nu er en meget stor Intel-kunde, pønser på at strikke servere med ARM processorer. Godt med noget mere konkurrence igen.

  • 2
  • 0
Pelle Söderling

Jeg forstår ikke helt artiklen for at være ærlig.

Mig bekendt:

1) Google og Facebook består af et kæmpe misk-mask af forskellige applikationer i backenden skrevet i mange forskellige teknologier. At betragte dem som én stor applikation er en fejl og det gør at de har et ganske stort behov for en generisk CPU arkitektur i deres servercentrer.

2) Det er korrekt at Google og Facebook optimerer deres server hardware-designs, men det er stadig X86-64 CPU'er der sidder i hovedparten af disse.

3) Google og Facebook har kigget imod ARM-CPU'er i servere til visse dele af deres arkitektur - ofte ret specialiserede lag, men det erstatter altså ikke behovet for de kraftigere og lettere at udvikle til X86-64 CPU'er.

Det virker som om artiklen blander forskellige ting sammen.

  • 3
  • 1
Johnnie Hougaard Nielsen

men det erstatter altså ikke behovet for de kraftigere og lettere at udvikle til X86-64 CPU'er.

Bare der er en god compiler, og en god kerne, er det for det meste software udvikling ligegyldigt om det er x86, ARM, Power eller noget andet. Måske et par tweaks for at optimere afhængig af platformen, men det er ikke noget hvor x86 er "lettere".

"Kraftigere" er nærmest ligegyldigt (til de fleste applikationer), hvis kombinationen af pris, ydelse og strømforbrug giver bedre økonomi i at køre noget andet som rygrad i en stor cloud. Det er ikke kun til specialiserede ting at Google overvejer ARM, tror jeg.

x86 har en fordel i den del af markedet hvor det handler om at køre applikationer, som er skrevet til traditionelle servere, men udsigten er at dette paradigme er på vej ud på et sidespor. Når det handler om deploy af en web applikation, er processor arkitekturen en ligegyldig detalje, så længe cloud udbyderen har en god infrastruktur med database og andet.

Intel skal oppe sig med deres teknologi hvis deres mere komplekse arkitektur skal fastholde sin dominerende rolle på cloud servere. Med samme chip teknologi ser det ud til at ARM konsekvent giver et bedre forhold mellem nøglefaktorerne, bl.a. fordi der kræves færre gates. Til gengæld har Intel ofte været tidligere ude med næste chip-teknologiske skridt.

Også på low level vænner software udviklere sig til ARM, når det jo også er nødvendigt at udvikle til smartphones, tablets og mangfoldige routere/NAS med ARM. x86 bliver i stigende grad "reduceret" til en valgmulighed, fra at være en selvfølgelighed.

  • 1
  • 0
Pelle Söderling

Det er let at lege gætteleg om fremtiden, men som jeg ser det står X86-64 stadig meget særkt i serverrummene. Det er muligt man vil eksperimentere med ARM, men det gav mere mening da forskellen i TDP var større - Intel har catchet en del op her.

Desuden er der massere af subtleties ved skift af CPU arkitektur man skal være opmærksom på - især i multi-threadede server-applikationer, der er meget mere til dette end blot at compile til en anden arkitektur. Eksempelvis kan antagelser om memory barriers ved skift af arkitektur forårsage concurrency bugs du ikke forventer. Dette bliver især et problem i kraftigt optimerede server-løsninger såsom dem der beskrives her, hvor den slags optimeringer er langt mere sandsynlige.

Desuden er tool-support og økomiljø stadig meget større når det gælder X86-64 udvikling, der er en relativ høj pris at betale for en efterhånden stærkt begrænset power-besparelse.

  • 1
  • 0
Johnnie Hougaard Nielsen

Desuden er der massere af subtleties ved skift af CPU arkitektur man skal være opmærksom på

Derfor pointerede jeg "det meste" softwareudvikling. Det er i høj grad værd at teste grundingt for dem som laver en SQL eller web server, men ikke lige for dem som skriver en almindelig web applikation, der ikke forudsætter så meget omkring memory barriers og andre subtleties.

Sagen er at omkostningerne ved at skifte væk fra x86 ganske rigtigt kan være så store for et almindeligt serverrum, at nogle procents besparelse i strømforbrug ikke er det værd. Hvis vi taler om Google, er bare 1% store sager, som kan bære at der investeres mange kræfter i det. Og 5% ville virkelig kunne ses på økonomien.

Som jeg ser det er en stor del af den catch-up som Intel har opnået på TDP af midlertidig karakter, indtil andre chip fabs igen har fået deres processer på niveau. Og med stærkt stigende volumen i ARM begynder det at blive sværere for Intel at finansiere næste spring, når omkostningen skal fordeles på en faldende markedsandel for CPU. Måske går de ind i at være chip fab for ARM designs, men det ville jo give x86 desto mere konkurrence...

Foreløbig er det et lyspunkt at ARM har sat x86 så meget under pres, at de bruger kræfter på at forbedre deres ellers tvivlsomme TDP.

  • 1
  • 0
Pelle Söderling

Når Google og Facebook vælger at customize hardware til specifikke applikationer og overvejer CPU valg - så taler vi jo netop ikke faster Olgas billedside - så taler vi om ekstremt specialiseret server-software.

Derudover har Intel historisk altid kværket opkomlinge givet nok tid - det skyldes ikke mindst at de har et enormt R&D budget og i det hele taget midler i en noget anden skala end konkurrenterne. Intel kan sættes under pres, det har vi set massere gange, men det vil være tåbeligt at afskrive Intel og tro verden nu tilhører ARM.

  • 1
  • 0
Johnnie Hougaard Nielsen

så taler vi om ekstremt specialiseret server-software.

Vi taler også om at Google satser på at være udbyder af generelle cloud services, i konkurrence med Amazon, Microsoft og andre. Og backend til apps er altså ikke noget der er "ekstremt specialiseret".

De er ikke på nippet til at sparke Intel ud, men der er ingen tvivl om at de vil regne grundigt på hvordan de kan spare strøm. Ud over penge, giver det jo lidt grønne goodwill-point, og det er jo noget som Google også dyrker gennem sine investeringer i alternativ energi.

Siden Intel var så heldige at IBM's valg af 8088 førte til deres dominans af CPU markedet, har der ikke været noget som har kunnet sætte den brede markedsandel under pres. AMD nærmede sig lidt, men det at konkurrere med den som definerer markedet er ekstra svært. Så de tabte jo pusten.

ARM er første gang vi ser en konkurrerende arkitektur få stort volumen, og det sker "tilfældigvis" samtidig med at cloud konceptet er så veludviklet, at det ikke længere er af afgørende betydning at den enkelte kerne har en høj ydelse. Hverken på client eller server.

Da ingen her har antydet at det er tid at afskrive Intel, er det en ren stråmand at fremhæve den indlysende tåbelighed i en sådan antagelse. De har brug for at blive sat under pres, de var jo nærmest faldet i søvn omkring at forbedre TDP.

  • 2
  • 1
Morten Hattesen

Det handler vel reelt blot om at optimere TCO (Total Cost of Ownership) for en given computing power i levetiden af hardwaren.

  • Anskaffelsespris/MIPS
  • Strømforbrug/MIPS
  • Køling/MIPS
  • Andre omkostninger (fysisk plads m.v.)

Og hvis en ikke-INTEL arkitektur er den billigste, så vil det blive valgt til den givne opgave.

Dette kan naturligvis kun lade sig gøre, fordi Google og Facebook har hundrede tusinder af servere i deres server farms, og i forvejen har erfaring i specialbyggede servere. Mindre operatører er stadig mere bundet til Intel servere i standard racks (eller i skyen)

  • 0
  • 0
Johnnie Hougaard Nielsen

Mindre operatører er stadig mere bundet til Intel servere i standard racks (eller i skyen)

Rigtigt, pt. Men der kunne tænkes at ske noget når/hvis de store modner koncepterne, og driver at basis software er veltrimmet til "cloud i metermål". I det mindste må der ske det at Intel opper sig for at fastholde sit markedsandel til server farme. I den lave ende, med enkelt-servere, er Intel næppe udsat, med mindre disse miljøer migrerer til løsninger der er bygget til cloud, altså ikke "bare" IaaS.

  • 0
  • 0
Jesper Louis Andersen

Derudover har Intel historisk altid kværket opkomlinge givet nok tid - det skyldes ikke mindst at de har et enormt R&D budget og i det hele taget midler i en noget anden skala end konkurrenterne. Intel kan sættes under pres, det har vi set massere gange, men det vil være tåbeligt at afskrive Intel og tro verden nu tilhører ARM.

Helt sikkert. ARM kan heller ikke producere chips selv i stor skala. Og som du siger er TDP for moderne Intel-hardware også ret konkurrencedygtigt. Hvis du vil noget, så skal du ind og have 10x på Intel-CPU'er. Og det kræver at hele dit system skal gentænkes. Med andre ord skal du have et CISC -> RISC spring igen. Noget kunne tyde på at det kan lade sig gøre ved at lave CPU'er der er pseudo-OOO og hvor oversætteren kan sige nok om hvad der sker til at man kan software-pipeline den.

  • 0
  • 1
Claus Jacobsen

ARM's forretningsmodel har intet med bygning af teknologi at gøre. De laver INGEN SOC's/CPU'er selv overhovedet. De bygger arkitekturen(på papiret :-)), og halvlederfabrikanter som Mediatek, broadcom, samsung, Rikomagic, Apple etc køber et partnerskab på forskellige niveauer hvor de får adgang til de designs. Afhængig af partnerskabet står det dem fuldkommen frit at lave enhederne som de har lyst til (apple og deres 64-bit udgave blandt andre).

Det betyder så også at ARM ikke har nogen "tung last" i form af produktionssystemer eller andre ting, og faktisk udelukkende har med IP og licenser at gøre. Hvilket i den grad giver dem en MEGET LEAN forretningsmodel (skomager bliv ved din hest)

Grunden til at ARM er så langt fremme i vælten som en reel konkurrent til Intel er fordi at der lige pt sælges flere enheder med ARM baseret teknologi end INTEL baseret teknologi, OG at teknologiskiftet peger yderligere i retning af ARM og ikke intel. Her taler jeg selvfølgelig om at INTEL's traditionelle platforme Desktops og Notebooks er MEGET pressede, og Intel er stort set NON eksisterende i hele det mobile tlf og tablet marked. De forsøger ihærdigt, men på trods af det pres de udøver for at få producenterne til at bygge deres maskiner med intel i, så går det rent faktisk MEGET trægt.

Hvad angår selve artiklen så er det jo ikke som Johnnie siger specialiserede servere overhovedet. Faktisk er de bare så strippede som overhovedet muligt at rent og skær KOST-hensyn. Køber man en helt alm HP/IBM/Dell kasse får man en masse med i købet. Til at starte med var det også OK. MS AZURE blev oprindeligt bygget op af HP PODS (kommerciel udgave af Google's containere) MEN det er ganske enkelt for dyrt. MS, GOOGLE, FACEBOOK er alle ODM'er eller "original DIRECT manufacturer" og de laver fuldkommen strippede versioner af deres hardware, som i 99% af tilfældende overhovedet ikke er specielle, men derimod fuldkommen standard komponenter. Men de er strippet for alt unødigt. (www.opencompute.org - så kan man selv se designs for facebook og MS)
Når man har 10 servere er det ikke noget problem at servicere dem og måske en gang imellem lige slukke hele skidtet hvis man skal lave en større opgradering, men går man op og har 100 servere, så bliver administrationen temmelig vanskelig. - Har man 100000 servere, så er administrationsomkostningerne ENORME med mindre man i den grad stripper tingene ned til det absolut mest nødvendige. Det er også her at SDDC (software defined datacentre) har sine rødder, da der bare skal så få kabler til og så lidt fysisk håndtering som overhovedet muligt til når man går i Hyperscale.

UD over den fysiske håndtering er der så også lige hele infrastrukturen. Det er i virkeligheden her artiklen misser pointen totalt. In-memory har intet med specialbyggede maskiner at gøre - snarere tværtimod. Det har noget at gøre med at når man laver realtime analyser/BI/BIG DATA etc så er det gamle traditionelle storagesystem ganske enkelt ikke godt nok, OG problemet med at kunne skalere ordentligt. GOOGLE og FACEBOOKS filsystemer og applikationer er MASSIVT distribueret og multithreadede og det er her storagesystemerne virkelig kommer til kort. Trenden i dag er så at få lavet storageløsninger der kan skalere massivt og over flere typer af medier (HDD's,SSD's, Flashkort/storageram) jo tættere på CPU'erne jo mindre ventetid. Problemet her er så at når applikationerne er så massivt distribuerede, så bliver netværket en enorm hindring da der opstår alvorlige ventetider i systemerne fordi de skal hente data på tværs af nodernes hukommelser og lagermedier. De ventetider kan så eskalere massivt og derved stort set dræbe applikationen så hvis HELE systemet ikke er bygget rigtigt op, så kan de eksempelvis ikke bruges til in-memory databaser. Det er også derfor at SAP har et certificeringsprogram til HELE løsninger og ikke bare en "server" der er certificeret til at køre deres HANA In-Memory løsninger.

Puha - det var meget. Jeg undskylder mange gange. Hvis der er nogen der har lyst til at vide noget om ARM's forretningsmodel og hvad det egentlig er de gør, så tag et kig på den her rigtigt gode artikel http://www.anandtech.com/show/7112/the-arm-diaries-part-1-how-arms-busin...

Den er faktisk rigtig interessant, og det giver et rigtigt godt indblik i hvorfor det ikke lige helt er til at finde rundt i alle deres udgaver og løsninger :)

  • 1
  • 0
Log ind eller Opret konto for at kommentere