per lolk bloghoved

Flash memory disk - en ny vidunderkur mod langsomme systemer

Nogle har sikkert allerede hørt om flash memory disksystemer, der i al sin enkelthed går ud på, at man bygger disksystemer på ram-moduler. Fordelen er, at man får rigtig mange I/O’er og korte søgetider, sammenlignet med almindelige højperformance SAS-diske. I forhold til enterprise SSD-diske, som har været her et stykke tid, er der også tale om bedre performance.

Det, man får ud af det, er, at man fjerner eventuelle disk-I/O-flaskehalse i sit system. Vi har haft lejlighed til at prøve teknologien i mange forskellige sammenhænge, og resultaterne kan man i beskedne vendinger kalde fantastiske! Systemerne kører meget hurtigere, og som oftest bliver belastningen af serverens CPU og memory også mindre, fordi serveren ikke skal håndtere I/O waits.

Rent teknisk har man mulighed for at koble disksystemerne til serverne via sit normale Fibre Channel SAN eller ved at lave direkte tilkoblet storage, så det er efterhånden nemt at implementere i den eksisterende infrastruktur.

Men hvad skal man så bruge det til? Og hvordan kommer business casen til at hænge sammen? For prisen er jo lidt højere end normale disks. Anvendelsesmulighederne kan være mange, men det giver bedst mening i sammenhænge, hvor applikationen kræver høj I/O performance, som det for eksempel er tilfældet med BI-systemer, databaser, datawarehouses, ERP-systemer og ældre systemer, hvor man har opgivet at optimere mere på koden.

Der er mange muligheder for at tjene investeringen hjem. De mest oplagte er:

  • lavere licensomkostninger, fordi man ikke skal bruge så mange CPU-kerner (det forudsætter selvfølgelig, at den software, man bruger, bliver licenseret pr. CPU eller CPU-kerne).
  • besparelser på server-infrastrukturen.
  • mere effektive medarbejdere, fordi svartiderne bliver reduceret dramatisk.
  • færre omkostninger til it-konsulenter, der skal performance-optimere og vedligeholde.

Så hvis man har systemer, der kører for langsomt, oplever vi tit, at man løser problemet ved at give dem hurtigere storage, og det er jo som regel mere enkelt end at optimere i koden, performance-optimere infrastrukturen osv. Derfor er flash memory disk en særdeles enkel og effektiv kur mod langsomme systemer.

Kommentarer (22)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Daniel Vexø

... Men jeg må stemme i og også medgive at denne "artikel" bærer kraftigt præg af at være skrevet af salgsdirektøren og ikke de teknikkere han sender ud i sidste ende - måske man skulle spørge dém til råds ved næste artikel...?

Med venlig hilsen Daniel...

  • 5
  • 0
Morten Hansen

Efter at have undersøgt markedet for enterprise SSD i SAN besluttede vi os for at lave vores egen server fra bunden af. En SSD-enabled boks startede ved 150k, og ssd diskene lå omkring 15k per styk. Vi købte i stedet off-the-shelf consumer varer, de ssd diske man køber som er "consumer" SSDer er årevis foran i kvalitet og ydelse i forhold til enterprise diske. Vi endte med et fuldt system inkl ssd i raid til mindre end en enkelt disk ville have kostet os.
Det kører nu MS SQL fantastisk, og performance boostet kan i den grad mærkes. To styk af dem i mirror, og livet er godt.

PS: Til dem der går mere op i om det hedder en SSD disk eller en SSD frem for at forholde sig til artiklens indhold, kunne I ikke bare spare os for at læse jeres galde i fremtiden og holde den indenfor egen dør?
Det fremmer ikke nogen saglig diskussion indenfor emnet på dette site som er IT, og ikke grammatik, og er direkte ødelæggende for debatten IMO.

  • 7
  • 6
Erik Cederstrand

som oftest bliver belastningen af serverens CPU og memory også mindre, fordi serveren ikke skal håndtere I/O waits.

Hvordan hænger det sammen? Det koster jo ikke CPU at programmet venter på I/O, med mindre vi taler om en hjernedød busy loop. Eftersom resten af artiklen handler om, at alting efterfølgende kører hurtigere, så må CPU og RAM jo få mere at lave, når flaskehalsen er fjernet?

  • 7
  • 0
Martin Jensen

PS: Til dem der går mere op i om det hedder en SSD disk eller en SSD frem for at forholde sig til artiklens indhold, kunne I ikke bare spare os for at læse jeres galde i fremtiden og holde den indenfor egen dør?
Det fremmer ikke nogen saglig diskussion indenfor emnet på dette site som er IT, og ikke grammatik, og er direkte ødelæggende for debatten IMO.

For nogle af os er det ødelæggende at termer og udtryk bruges forkert. Det er det ikke for dig, og det er kan jeg fint acceptere - og du kunne jo overveje at forsøge at respektere, at andre - ligesom dig - også har en mening om det.

Det har ikke noget med grammatik at gøre, og der er sjældent nogen herinde der påpeger tegnsætning/stavefejl.

Da det er website for professionelle, og ikke web-udgaven af en it-bæverding, så synes nogen af os, at man skal gå efter at være korrekt i udtryk og forkortelser - noget der f.eks. er vigtigt i en kontrakt, og når man kommunikerer med andre IT professionelle.

Jeg har dårlige erfaringer med at to parter har haft din holdning til korrekthed omkring forkortelser og udtryk, og har sjusset sig til hvilket term der måske var ment - og de var selvfølgelig ikke enige.

Jeg mener mere det er forkert at misbruge termer som SSD-disk, på linie med CPU-holdere under skriveborde osv. Min far, som er grovsmed, har ikke umiddelbart et problem med 'CPU-holder'.

  • 6
  • 3
Christian Estrup

som oftest bliver belastningen af serverens CPU og memory også mindre, fordi serveren ikke skal håndtere I/O waits

Dén studsede jeg også over - specielt den efterfølgende overtrumfning:

lavere licensomkostninger, fordi man ikke skal bruge så mange CPU-kerner

Hvis man ligefrem kan spare CPU-kerner, må man godt nok have en ekstremt høj CPU-utilization på sine eksisterende diske. Dét kan selvfølgelig også skyldes, at man bare har nogle meget langsomme CPU'er - men hvilken per-CPU(-kerne)-licenseret software er det lige, man vælger at køre på langsomme CPU'er?

  • 3
  • 0
Steen Poulsen

Altså - al den "uvidende" jubel over SSD - Problemet SSD er og bliver antallet af skrivninger før læse/skrivefejl - og HER vinder en HDD suverænt ! Et typisk FLASH medie kan klare små 100000 skrivninger(Eller skal vi sige "page erase" - hvilket dækker over en blok på typ. 4k) i samme område. HDD ?? ved det ikke, men i princippet uendeligt. En traditionel HDD hoved har ikke fysisk kontakt med mediet som data lagres på og data er gemt som magnetisme.

Hvor mage har ikke haft en FAT formateret USB nøgle - som er gået i stykker i løbet af et års tid ? - fordi den konstant skriver 2 FAT områder i starten og slutningen.

Personligt har jeg haft en bærbar, med en SSD disk i - det fungeret fint indtil jeg installeret spotify - som tilfældigt vis bruger disken som midlertidigt lagrings plads til musik - 3 måneder, og så var disken ubrugelig, med masse af læse/skrive fejl !

SSD skal bruges med omtanke, og IKKE til midlertidigt lagrings plads...
Jeg foretrækker KLART roterende diske, med deres kendte svagheder !

  • 0
  • 2
Martin Rasmussen

Ved MLC, er det nu 10k writes med 34nm, ca 5k writes med 28nm og ca 3k writes ved 18-20nm - Men det er en detalje. SLC klarer ca. 100k writes med 34nm ja.
Men derudover er der jo kæmpe forskel på de ssd'er man kan købe.
F.eks. så er Intels DC3700, samt deres tidligere 25-E model designet til stor antal writes - Men de koster også derefter. Men ja, du har ret, ssd'er er ikke løsningen på alt.
Jeg kan i hvert fald blive bekymret når jeg læser sætninger her på forumet så som;

Vi købte i stedet off-the-shelf consumer varer, de ssd diske man køber som er "consumer" SSDer er årevis foran i kvalitet og ydelse i forhold til enterprise diske. Vi endte med et fuldt system inkl ssd i raid til mindre end en enkelt disk ville have kostet os.

Men vi hører nok desværre ikke fra denne bruger, hvis hele systemet går ned da de har valgt en konsumer ssdd er kan klare 3k writes pr cell - Eller ca 600TB writes for en 200GB MLC 18-20nm baseret disk.
Det kunne gå pænt hurtigt med en SQL server...

  • 2
  • 0
Martin Jensen

Jeg synes at mange er tilbøjelige til at bekymre sig lidt for meget.

En Samsung SSD830 (og det er 3. generation, vi er ved 4. generation nu) kan holde til mange skrivninger - her er der et eksempel på at en sådan melder sig 'worn out' ved 828 TeraByte skrivning, men stadig fungerer efter over 5 Petabyte skrivninger:

http://www.anandtech.com/show/6459/samsung-ssd-840-testing-the-endurance...

In short - med lidt omtanke, så kan en 4. generations SSD holde så meget, at ovenstående spekulering i 1. og 2. generationsproblemstillinger nok er tidsspilde.

Quote fra linked artikel - og det jeg personligt bruger som argument for at købe Samsung SSD's (en af de største OEM SSD leverandører til bl.a. Apple og Dell):

"Furthermore, it should be kept in mind that all SMART values that predict lifespan are conservative; it's highly unlikely that your drive will drop dead once the WLC or MWI hits zero. There is a great example at XtremeSystems where a 256GB Samsung SSD 830 is currently at nearly 5,000TiB of writes. Its WLC hit zero at 828TiB of writes, which means its endurance is over five times higher than what the SMART values predicted. That doesn't mean all drives are as durable but especially SSDs from NAND manufacturers (e.g. Intel, Crucial/Micron, Samsung etc.) seem to be more durable than what the SMART values and datasheets indicate, which isn't a surprise given that they can cherry-pick the highest quality NAND chips."

840 Pro fra Samsung, som er gammel i det her game, er rated ved minimum - ikke maksimum - 25K erases pr celle. Det med at "de gamle" bliver ved med at snakke om 3K, det er ammestuehistorier nu om dage.

SSD teknologi flytter sig hurtigere end debattørerne herinde kan nå og gisne om (eller følge med i åbenbart). Ammestuehistorier og gamle skrækhistorier, de lever længere.

  • 1
  • 1
Claus Jacobsen

Som sådan har Per egentlig ret - at han så ikke tænker over de mulige scenarier er en anden ting. Fidusen er jo at IBM har købt Texas Memory Systems eller på godt "dansk" den første producent af SAN løsninger der var ALL-Flashmemory. Hvilket så også har en MONSTER stor effekt på prisen. (den første løsning de lavede lå vist på mellem 500K-1mio USD hvilket selvølgelig også betyder at brugsscenariet ikke lige var i den danske SMB-verden og knap nok dansk enterprise verden. Så vi taler altså her om IOPS på omkring 1mio - med andre ord. VDI/SQL/etc installationer til mange mange tusinde/hundredetusinde samtidige brugere. HER kan der så sagtens opstå waitstates i et traditionelt HDD-miljø alene fordi der skal så enorme mængder af diske til for at kunne nå op i nærheden af den samme performance. Men seriøst - det er rent salgspjat i DK. Så hvis den blev brugt i en salgstale overfor mig som kunde så ville jeg godt nok lynhurtigt bede dem lave en beregning på hvor mange licenser jeg ville kunne spare væk på mit 3-server cluster, inden de fik lov at fortsætte med salgstalen.
En af de mere interessante ting i øjeblikket synes jeg faktisk kommer fra Fusion-IO som laver indstikskort i serverne i stedet. Problemet med dette er jo så at data der ligger der ikke lige er en del af dit storagemiljø og dermed skal man manuelt sørge for backup/sikkerhed. Det Fusion gør er så at de nu har lavet en driver så man kan udvide storage-systemet til også at gælde de interne SSD/kort i selve serverne (netapp har også lavet det direkte til deres storageløsning, sammen med Fusion som de første, men fusions egen er mere generisk)
så med et 50K kort der giver 200K IOPS og omkring 400GB der ydermere kan daisychaines så man blot kobler flere kort på afhængig af hvor mange der kan sidde i serveren, så kommer man faktisk rigtigt langt uden at skulle lege med et specifikt san som i den grad koster kassen. Men jeg kan godt forstå IBM - for de har ikke haft muligheden for at lave et sådan setup i deres egne systemer, så de var tvunget til opkøb, når Violin og en række af de små opstartsvirksomheder der specialiserer sig i det her snupper kunde efter kunde for næsen af dem. Og her taler vi om løsninger der virkelig koster kassen. Det kan IBM selvfølgelig ikke have siddende på sig :-)

Hvad angår det med consumer og enterprise udgaver så har de fleste ret. Jeg ville som cheapass direktør også beordre mine folk ud og købe consumerversioner - men man skal så bare forberede sig på at de skal udskiftes markant oftere end enterprise versionen - og så er det pludselig ikke længere nogen billig løsning. consumer er god til båndbredde der måles i MB/s ved sekventiel læsning, men holdbarheden er knap så god da en privat ikke lige laver SQL forespørgsler 24/7 og man derfor kan spare lidt på pengene der. Enterprise er god til høj antal samtidige forespørgsler (iops), markant længere levetid, og så en smule mindre MB/s - en SQL databases performance måles ikke i hvor mange MB/s man kan læse. men det er korrekt at performance stiger uanset hvad i forhold til deres gamle raid1 HDD baserede database.

  • 2
  • 0
Sune Marcher

SSD teknologi flytter sig hurtigere end debattørerne herinde kan nå og gisne om (eller følge med i åbenbart). Ammestuehistorier og gamle skrækhistorier, de lever længere.


Er der nogen der rent faktisk har oplevet en SSD står af, fordi antallet af erase cycles er blevet opbrugt?

Min erfaring er det er firmware panic (tidlige(re) SandForce chipsets) eller controller-elektronik der opgiver ævret. Min Intel X25-E stoppede med at virke fra den dag til den anden, uden nogen som helst advarsel - og den havde på ingen måde fået prygl nok til at erase cycles skulle være opbrugt.

Så... erase cycles bekymrer mig ikke ret meget, men jeg stoler heller ikke på SSD endnu. Jeg går dog ikke tilbage til HDD af den grund, til gengæld har jeg fået nogenlunde styr på backupprocedurer :)

  • 1
  • 0
Flemming Seerup

SSD skal bruges med omtanke, og IKKE til midlertidigt lagrings plads...
Jeg foretrækker KLART roterende diske, med deres kendte svagheder !


Ja og tape er endnu bedre til langvarig storage! :)
Der er mange faktorer i spil, når man vælger lagringsmedie. Performance ikke mindst.
Men ja, man skal overveje hvilke medier man bruger til hvad, og hvordan data er sikret (i forhold til værdien af de data).

  • 0
  • 0
s_ mejlhede

Hvis det er performans OG pris som er vigtigt.
Så vælg en hybrid som momentos XT, de er rigtigt gode til desktop, bærbare "normal" brug, da en normal SSD kan have lidt i underkanten af plads, hvis den også skal købes for penge. Samt man gerne vil have lidt nyere spil, flere OS og nogen film med på ferie. Så er pladsen for lille/dyr med SSD.
Bruger selv en hybrid, samt en SSD i min stationære, og jeg synes ikke jeg kan mærke den store forskel. Og i forhold til pris er der ingen anden alternativ, næsten SSD performans, med HDD kapacitet, til næsten HDD pris.

OBS husk at køb en adaptor hvis den skal i en stationær, de findes kun i 2.5", bare mit råd herfra hvis det er til "desktop" brug.

  • 0
  • 1
Claus Jacobsen

Kære Søren - der bliver overhovedet ikke omtalt skrivebordsudstyr her. - alle betragtninger om hvad der virker i din stationære/bærbare har absolut ingen relevans til selve blogindlægget eller det der bliver diskuteret. hybriddiske er overhovedet ikke indtrådt i enterpriseverdenen (altså RIGTIG virksomhedsbrug til at kunne køre 24/7 med enterprisesoftware/applikationer - altså SAP, Oracle, MS SQL, Navision applikationer CRM løsninger, virtuelle desktoppe/applikation etc som alle skal køre 24/7 for at kunne holde en virksomhed kørende. Vi taler ikke om word og lidt excel med mindre de bliver præsenteret som en citrix/remote løsning)

  • 0
  • 0
Claus Jacobsen

ramsan (som der beskrives i indlægget) er ikke in-memory, men flashkort/memorymoduler der erstatter diskene i din controller på SAN'et. Det er dog ikke noget som helst problem at lave en DB der kører in-memory - det er sjovt nok the next big thing i DB-verdenen. SAP har deres HANA, som kører på et cluster af servere og al ram samles i en fælles pool, men den skal selvfølgelig ikke være i petabyte størrelsen - så er det så absolut en økonomisk udgift der lige skal tænkes lidt over :-) (eller ret mange TB for den sags skyld :-) ). Det er 2 vidt forskellige teknologier (ramsan og in-memory) hvor den sidste så absolut er meget brancheorienteret (eg. jeg har ikke rigtigt set så mange andre end databaser der laver in-memory på den måde, oracle og MS er også i gang. Mener faktisk at den nyeste MS Sql skulle kunne lave det også.).
Når det så er sagt, så er In-memory på større databaser så absolut ikke nogen billig affære - kan ikke huske hvad HANA koster, men vi er i den grad oppe i 6-7 cifrede beløb. (specialtilrettede løsninger hele vejen igennem!)

PS - og hvad angår indlæg 4 - så er det jo så desværre ham der ikke lige ved hvad det oprindelige indlæg egentlig drejer sig om.

  • 0
  • 0
Per Lolk

Uha sikke en masse kommetarer, jeg beklager, at jeg kom til at kalde Solid State Drives for SSD diske. Men det er mit indtryk, at det faktisk er det, de fleste kender dem som.

Jeg beklager også, at mit blogindlæg ikke er spækket med tekniske specifikationer. Det var det ikke, fordi jeg som sådan ikke ved ret meget om den dybereliggende ingeniørkunst. Til gengæld har jeg en hel del forstand på at hjælpe vores kunder med at lave den optimale infrastruktur til deres systemer - optimal ud fra parametrene: sikkerhed, tilgængelighed, svartider, driftsomkostninger, skalerbarhed og investeringsomkostninger. Siden vi begyndte at arbejde med flash memory-systemer og udskifte hardiske med Solid State Drives (SSD diske), kan jeg se, at teknologien virker som en vidunderkur, når der er tale om systemer med høje krav til I/O performance. Det er tit systemer, hvori der indgår databaser, og erfaringen har vist, at sådan en database kan bruge vældigt mange CPU-ressourcer på at vente på svar fra diskene. Når den så ikke længere skal vente på svar fra diskene, bliver der frigjort kapacitet. Samtidig virker det som om, der er balance mellem medicinens pris og virkningen.

Jeg faldt over denne artikel, der forklarer, hvorfor flash storage giver god mening i forbindelse med data warehousing.

Og hvis du gerne vil se nogle specs på, hvor hurtigt flash storage kan være, kan du se lidt om vinderen af Datamagasins årlige Storage Award.

  • 0
  • 0
Per Lolk

Uha sikke en masse kommetarer, jeg beklager, at jeg kom til at kalde Solid State Drives for SSD diske. Men det er mit indtryk, at det faktisk er det, de fleste kender dem som.

Jeg beklager også, at mit blogindlæg ikke er spækket med tekniske specifikationer. Det var det ikke, fordi jeg som sådan ikke ved ret meget om den dybereliggende ingeniørkunst. Til gengæld har jeg en hel del forstand på at hjælpe vores kunder med at lave den optimale infrastruktur til deres systemer - optimal ud fra parametrene: sikkerhed, tilgængelighed, svartider, driftsomkostninger, skalerbarhed og investeringsomkostninger. Siden vi begyndte at arbejde med flash memory-systemer og udskifte hardiske med Solid State Drives (SSD diske), kan jeg se, at teknologien virker som en vidunderkur, når der er tale om systemer med høje krav til I/O performance. Det er tit systemer, hvori der indgår databaser, og erfaringen har vist, at sådan en database kan bruge vældigt mange CPU-ressourcer på at vente på svar fra diskene. Når den så ikke længere skal vente på svar fra diskene, bliver der frigjort kapacitet. Samtidig virker det som om, der er balance mellem medicinens pris og virkningen.

Jeg faldt over denne artikel, der forklarer, hvorfor flash storage giver god mening i forbindelse med data warehousing.

Og hvis du gerne vil se nogle specs på, hvor hurtigt flash storage kan være, kan du se lidt om vinderen af Datamagasins årlige Storage Award.

  • 0
  • 0
Claus Jacobsen

Nu er jeg godt klar over i som regel kun leger med IBM per - men hvis du vil have nogle bare minimalt mere tekniske aspekter ind, så kan jeg på det kraftigste anbefale at læse lidt fra Robin Harris (storagemojo.com) eller Hu Yoshida http://blogs.hds.com/hu/ (Hu brugte 25 år i IBM's storagedivision inden han flyttede til HDS, så han kender også gamet ret godt) De 2 kommer som regel med nogle ret gode forklaringer på hvad der sker i den teknologiske storageverden, og kan selvfølgelig være en sjat tekniske. (uagtet at du ikke taler teknologi) men sætter som regel tingene lidt i relief, til alt det salgsgas man ofte bliver fyldt med fra marketingafdelingerne hos de forskellige producenter. (OG BIG BLUE's maskine er særdeles velsmurt. :-) )

  • 0
  • 0
Per Lolk

Ja det er jo i reglen mest IBM, vi leger med, men hvad angår flash memory-løsninger er det Fusion I/O og Violin Memory, vi har flest erfaringer med. Jeg er enig i, at der skal sættes tekniske specifikationer på, når det kommer til den enkelte case, men de er i særdeleshed også meget taknemmelige, specielt i hænderne på marketingfolk. Jeg vil sådan set bare advokere for, at hvis man går og bøvler med svartiderne, så kan flash memory-løsninger være en nem vidunderkur. Vi har oplevet, at svartider bliver reduceret mere end faktor 10 ved bare at bruge disse systemer i stedet for almindelig hurtigt enterprise storage.

  • 0
  • 0
Log ind eller Opret konto for at kommentere