Gartner: Hastighed gør flashdiske til topprioritet i serverrummet

Solid State-diske baseret på flashhukommelse kan afhjælpe flaskehalsene mellem serverne, der er blevet så hurtige, at de traditionelle harddiske ikke kan følge med.

Blandt de teknologier, som it-chefen bør være mest opmærksom på i 2010, er flashbaseret storage på Solid State-diske, SSD. Det mener analysefirmaet Gartner.

SSD er baseret på flashhukommelseschips, der bygger på samme princip som den flashhukommelse, der bruges til eksempelvis digitale kameraer, selvom selve chippene i SSD er af en anden type.

Fordelen ved SSD er, at der ikke er nogen mekaniske dele. Det gør søgetiden lavere, og det gør det hurtigere især at indlæse data, der ligger spredt over flere områder på disken. Mekaniske harddiske har plader, der roterer, og et læsehoved, der skal bevæges til de sektorer, hvor de relevante data ligger.

Det giver en forsinkelse, og det er nu nået et punkt, hvor indlæsning og skrivning af data til storage er blevet en flaskehals i mange servere. De nye typer SSD er takket være bedre firmware blevet væsentligt hurtigere inden for det seneste år, mens de mekaniske diske ikke har oplevet tilsvarende forbedringer.

»Forskellen mellem de to bliver hele tiden større,« siger analytiker Carl Claunch fra Gartner til Network World.

De første SSD-lagermedier led under, at hvert kredsløb maksimalt kunne overskrives omkring 10.000 gange. Det er nu forbedret til 100.000 skrivninger, og samtidig er firmwaren blevet bedre til at fordele sliddet jævnt over alle kredsløb.

»I dag kan vi reelt lave SSD, som har en lige så lang levetid som en konventionel harddisk,« siger Carl Claunch til Network World.

Derfor er tiden nu ifølge Gartner kommet til, at it-cheferne bør have SSD på lystavlen som en datacenterteknologi, der skal med i overvejelserne. Foreløbigt begrænses SSD dog fortsat af, at SSD ikke kan hamle op med prisen pr. gigabyte i forhold til de konventionelle diske.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Kommentarer (15)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Jon Bendtsen

Jeg har en 160GB intel SSD i min 3 år gamle laptop, som endda kun kan køre sata-150. Men det føles stadig fantastisk meget bedre end den 7200 rpm harddisk som sad i den. Det er bedre end at få en ny computer.

  • 0
  • 0
Anders Gregersen

SSD kan i mange situationer forbedre performance for en forholdsvis lav pris når man sammenligner fordelene kontra pris. Vi har f.eks. implementeret en PCI-e baseret SSD i vores backupløsning i forbindelse med staging, som halverede vores Exchange og SQL backup vindue. Ved databaser kan der være meget store fordele at hente, det samme gælder nogle VDI baseret løsninger hvor det er IOPS og ikke kapacitet der er udfordringen.
Udfordringen er at finde flaskehalsene og sikre sig at der ikke er andre årsager til det, da det kan være en dyr fornøjelse, hvis problemet ikke blev løst. Storage teknologier som EMC's kommende FAST og Compellent bliver i højere grad nødvendigt hvis man benytter SAN for at få en automatisering tiering af data på de forskellige lagringstyper (SSD, SAS, SATA).

  • 0
  • 0
Peter Jørgensen

Kan traditionalle SATA diske udskiftes umiddelbart, eller kræver det support for SSD i controlleren og/eller bios?
Benyttes flere SSD'ere i spejlet RAID for at forhindre datatab når de er ved at være udkørte? Eller giver det ingen mening, hvis to identiske spejlede drev typisk vil fejle stort set samtidigt?

  • 0
  • 0
Jens Madsen

En SSD harddisk der forsynes med tilstrækkelig skrivecache, vil kun genskrive samme byte/sektor få gange i døgnet. Problemet med stor cache, er at det tager tid at overføre data fra skrivecache til harddisk ved strømsvigt - så den bør have et lille backup batteri, hvis det skal være sikkert. Er der en nødforsyning, kan det måske også betragtes som sikkert nok. Med stor skrivecache, burde derfor ikke være større problem med genskrivninger. I forhold til flashdisk prisen, koster nogle få gigabyte i skrivecache ikke mange kroner, og den kan være med til at øge hastigheden meget.

Dertil kommer, at det er teknisk muligt, at opnå flere millioner genskrivninger på en flash disk.

Hvis softwaren er "intelligent", vil den samtidigt sikre at harddisken genskrives jævnt. Det øger antal gange, den kan genskrives.

Idag tror jeg at flash diske er for dyre, til store harddisk servere. Men jeg tror, at de inden længe, vil fungere godt i et disk-array, hvis man kan konfigurere den til, at bruge flash-diskene, til kun de mest læste data, og harddiskene til data læses meget lidt. Derved kan måske 9/10 af pladsen ligge på store harddiske, som næsten aldrigt læses - meddes data der læses ofte, ligger på flash diske. F.eks. vil det for det offentlige, være en urimelig udgift, hvis data om os alle skulle ligge på flash - vi henter jo kun oplysningerne nogle få gange om året. Derimod hjemmesider, cgi'er, og andre data der læses ofte, og som er ens for alle borgerne, og bruges mange gange om dagen, de vil ligge godt på flash.

  • 0
  • 0
Daniel Schledermann

Hvad med logfiler? Der bliver jo skrevet til dem i små etaper konstant. Jeg er afventende da jeg forstiller mig at eksempelvis en maillog meget hurtigt vil kunne skrive en SSD-disk i gulvet. Jeg har eksempelvis dagligt små 10000 linier på min maillog. Ville det ikke hurtigt slå en SSD-disk ihjel?

  • 0
  • 0
Daniel Schledermann

I første omgang er det er blot til min (hjemme)server. Et af kravene er at den er stille og ikke bruger ret meget strøm, begge krav der passer vel på en SSD. Men med de mængder spam der bliver forsøgt sendt til serveren, støjer /var/log/maillog en del :-). Derfor denne bekymring.

  • 0
  • 0
Jens Madsen

Hvad med logfiler? Der bliver jo skrevet til dem i små etaper konstant. Jeg er afventende da jeg forstiller mig at eksempelvis en maillog meget hurtigt vil kunne skrive en SSD-disk i gulvet. Jeg har eksempelvis dagligt små 10000 linier på min maillog. Ville det ikke hurtigt slå en SSD-disk ihjel?

Når harddisken kun tåler 100.000 skrivninger, er det til samme position. Logfiler gemmes typisk "spredt" ud over harddisken. Så længe de ikke slettes, så tæller de dermed kun 1/100.000. Sletter du den, og bruges samme sted på harddisken, bliver det 2/100.000. Selvom logfilerne slettes en gang per. dag, er der nok til mange hundreder af år. Så logfiler, er ikke et stort problem. Det største problem, er hvor data skrives, og genskrives hele tiden, eller skrives og slettes. Heldigvis minimerer en stor skrivecache at dette sker ofte. Så normalt, er det hellerikke et stort problem, hvis skrivecachen er stor.

Det største problem, er måske memoryleaks i software, og computerens swapfil. Selvom denne slettes med mellemrum, så kan et effektivt memoryleak, nemt lave mange skrivninger til ram, der må swappes ud til harddisk, og kort tid efter slettes igen. Hvis softwaren er uden fejl, burde der ikke være problem med memory leaks. Men det kan være en fordel, at slå swapfilerne fra, og i stedet investere i ram. Normalt er ramforbruget beskedent, for de fleste applikationer, indeholder ikke memoryleaks. Nogle kan indeholde store tabeller, men det er sjældent. Større mængder data, gemmes sædvanligvis i træstrukturer, f.eks. rød-sort træer, eller balancerede søgetræer, da disse store-O mæssigt, er ligeså hurtige at slå op i som tabeller.

Java kan måske være en synder - hvis der skiftevis oprettes og fjernes variable, vil de "gamle" variable fylde op i hukommelsen, og måske swappes ud. Ideelt set, burde dette ikke ske, fordi at oprydningen burde gå igang inden der swappes. Men det kan måske afhænge af forskellige ting, om oprydningen starter i tide, før der swappes data ud på harddisken. Af sikkerhedsmæssige årsager, mener jeg derfor det er bedst at slå swapfilen fra, for så er helt sikkert, at Java gør det, før der swappes. Men det burde ikke være nødvendigt.

Skulle en sektor blive overskrevet så ofte, at den ikke fungerer, så er de fleste SSD harddiske forsynet med ekstra sektorer, som der skiftes til. Brugeren vil derfor oftest intet opdage.

  • 0
  • 0
Jacob Christian Munch-Andersen

Regneeksempel: Sæt en 256 GB disk som kan skrive med 200 MB/s til kontinuerligt at overskrive sig selv og det vil tage over 4 år før den har overskrevet hver celle 100000 gange. Med de distributionssystemer som enhver hæderlig flashdisk bør være udstyret med kommer overskrivningerne altid til at fordele sig nogenlunde jævnt. Dermed kan man også normalt godt bruge en flashdisk til swap.

  • 0
  • 0
Jens Madsen

Med de distributionssystemer som enhver hæderlig flashdisk bør være udstyret med kommer overskrivningerne altid til at fordele sig nogenlunde jævnt. Dermed kan man også normalt godt bruge en flashdisk til swap.

En stor harddisk hjælper til holdbarheden, da distributionssystemet sikrer skrivningen foregår jævnt fordelt.

Du kan godt bruge en flashdisk til swap - men hvis vi skal vurdere, hvad der slider "mest" af de almindelige opgaver en PC har, så er det swap.

Har du en ganske lille flash disk, så er problemet større med genskrivninger, og så vil jeg slå swap filen fra. Desuden burde swap filen ikke være nødvendig til flertal af formål, med de størrelser ram er idag. Der kan være memoryleaks i software, men det er bedre at opdage disse, end at blot udvide med harddiskens kapacitet.

  • 0
  • 0
Baldur Norddahl

Desuden burde swap filen ikke være nødvendig til flertal af formål, med de størrelser ram er idag

Af samme årsag slider swap nok ikke specielt meget, når det fungerer som "nødhukommelse" og sjældent faktisk bruges.

  • 0
  • 0
Jørgen Ramskov

Jeg kan sige at selv i en ny PC er det en ganske dejlig opgradering!

Man skal dog passe på med hvilke SSD'er man køber i dag - der er stor forskel i performance. Anandtech.com har lavet flere gode artikler om det som varmt kan anbefales før en evt. investering.

  • 0
  • 0
Log ind eller Opret konto for at kommentere