Oracle dropper al udvikling til aldrende Itanium-chips

Oracle har besluttet at stoppe med at udvikle software til Intels Itanium-arkitektur. Intel vil fokusere på x86.

I en pressemeddelelse skriver Oracle, at firmaet efter en række samtaler med Intel har besluttet, at man ikke længere vil udvikle software til Intels Itanium-processorer.

Beslutningen blev taget, efter at Intel gjorde det klart, at firmaet i fremtiden ville fokusere på x86-processorer, og at Itanium desuden befinder sig i sidste del af sin levetid.

Hverken Microsoft eller Red Hat udvikler til Itanium i dag, og HP har ikke annonceret planer om at anvende Itanium i fremtiden.

Oracle oplyser, at man fortsat vil yde support til eksisterende versioner af firmaets software, der i dag kører på Itaniumprocessorer.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Kommentarer (30)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Martin Berg

"Hva' faen vil HP gøre ved det ?"

Godt spørgsmål, men det har de jo nok tænkt over et stykke tid (jvf. "HP har ikke annonceret planer om at anvende Itanium i fremtiden.") Lur mig om ikke der har været en del dialog mellem Intel og deres vistnok eneste Itanic-kunde af betydning inden Intel kommer med ovennævnte udmelding.

Men ellers må vi jo stille os tilfreds med Sparc og Power CPU'erne.

(Som en anden debatør skriver: ironi kan forekomme)

  • 0
  • 0
Jesper Frimann

Godt spørgsmål, men det har de jo nok tænkt over et stykke tid (jvf. "HP har ikke annonceret planer om at anvende Itanium i fremtiden.")

Tja annonceret og annonceret, jeg må da indrømme at jeg har set ikke så få HP roadmaps, hvor både Poulson og Kittson har været på.. sådan de sidste 4-5 år. Men HP skal jo også lige have lov til at få hele porteføljen opgraderet til Tukwila først.

Men en formel annoncering, nej. Men du har jo heller ikke set en formel annoncering fra Oracle af Yellowstone falls, eller Cascade falls, eller en annoncering af POWER8 fra IBM, og vi kunne jo nok også finde et par Intel og AMD processorer der heller ikke er annoncerede.

Så skal vi ikke bare kalde "HP har ikke annonceret planer om at anvende Itanium i fremtiden." for marketing Bull, der bygger på ordkløveri.

Men det er synd for konkurrencen på UNIX markedet, og jeg tror det er en dårlig ide for Oracle på længere sigt.

// jesper

  • 0
  • 0
Torben Mogensen Blogger

Itanium har øgenavnet "Itanic", fordi det af mange blev betragtet som en dødssejler. Men selv om Itanium aldrig blev den succes, som Intel spåede, så har Intel alligevel fået en fordel af projektet: De fik slået nogle potentielle konkurrenter til x86 ihjel.

Da Intel annoncerede Itanium-projektet, droppede Compaq udviklingen af Alpha (som de havde købt sammen med resterne af Digital) og SGI droppede udviklingen af MIPS, begge fordi de ville satse på Intel's nye vidunderarkitektur. Andre tog udviklingen af MIPS op, men ikke som serverprocessor, men Alpha døde helt efter et par år, selv om Samsung blev ved med at producere den efter, at Compaq havde droppet den. HP droppede også deres egen PA-RISC arkitektur og blev partner i Itanium-projektet.

Nettoresultatet var, at de eneste reelle konkurrenter til x86 på servermarkedet blev Power, Sparc og Itanium. Sidstnævnte har nu fået dødsstødet, og det er ikke klart, hvad fremtiden for Sparc bliver, nu hvor Oracle har købt Sun. Men Oracles udmelding om, at de vil droppe Itanium, giver måske Sparc en chance.

  • 0
  • 0
Jesper Frimann

Øh, jeg forstår ikke et mug af de to ovenstående "insider"-kommentarer...

Alt IT her i verdenen kører altså ikke på x86. Der findes ikke så få andre platforme, hvor de fleste er x86 overlegen, på stort set alle fronter, på nær lige antallet af solgte servers.

// jesper

  • 0
  • 0
Jesper Frimann

Torben Mogensen skrev: Da Intel annoncerede Itanium-projektet

Jo jo nu var EPIC jo en HP ide som de solgte til Intel. Og selv IBM var med på vognen og der blev da også skippet en AIX 5.0 der kunne køre på Itanium.

Jeg har aldrig været en fan, jeg blev lidt skræmt væk af compile tider, kode størrelse og performance for 10+ år siden.

Men hvis man skal være objektiv så har der været nogle rigtig solide processorer fra Intel. Problemet for de nyeste generationer har været at de er kommet for sent på markedet.

Og Tukwila coren pakker altså et seriøst single threaded punch og scalability af de servers som især HP har lavet er altså ikke dårlig.

// Jesper

  • 0
  • 0
Peter Jespersen

Alpha blev ikke bare dræbt, men solgt fra - Intel opkøbte størstedelen, som HP vist benyttede, hvor de nu kunne i forbindelse med deres Itanic2.

MIPS er forretsen dukket op til overfladen igen (de har jo ført en noget anonym tilværelse efter at de gik den indlejrede vej) - efter at et kinesisk firma har annonceret en implementation.

  • 0
  • 0
Martin Berg

"... og jeg tror det er en dårlig ide for Oracle på længere sigt." Nu har jeg ikke intern viden om fordelingen af solgte Oracle produkter på CPU'er, men ud fra de Oracle kunder, som jeg taler med/besøger/hører om, så udgør Itanium ikke nogen betydende andel. Så kommercielt er det nok det rigtige at gøre - også på det længere sigt, med mindre man da forventer en pludselig opblussen af Itanium baserede systemer. Og for Oracle er Itanium jo blevet en "konkurrent" fra tidligere at have være en "platform, som nogle kunder bruger". Iøvrigt har Oracle gennem årene altid været prompte i reaktionen, når en leverandør til en platform (det være sig OS eller CPU) har luftet tanken om at stoppe - jeg kan her erindre NT på Alpha, OS/2 og Pyramid.

  • 0
  • 0
Jesper Frimann

"som jeg taler med/besøger/hører om, så udgør Itanium ikke nogen betydende andel."

Tja, der er nu stadig nogle seriøse Oracle installationer på Itanium rund omkring. Den siste jeg havde fingrene var vist en 48 core installation.

Og en ting er hvad Itanium markedet betyder for Oracle, for HP er det altså stadig et marked, der betyder noget. Sådan i direkte salgs tal skal HP's UNIX revenue nok ligge på cirka 12-14 milliarder danske kroner, hvis vi bruger IDC tal, uden at jeg lige har slået dem op Og jeg tror ikke at de lige tager den lussing med et smil :)

Jeg har også svært ved at se fordelen for Oracle, det er jo ikke ligefrem fordi, at SPARC tager markedsandele. SPARC's UNIX revenue share ser stadig ud til at være i frit fald. På under 10 år har man tabt mere end 20% i markedshare (revenue). Så jeg kan ikke lige se at det er en fordel, at man mindsker markedet for sine egne produkter. Desuden har man jo også mindsket prisen på Oracle for SPARC T3 processoren. Så ja jeg forstår ikke logikken.

Men hva faen ved jeg :)=

// Jesper

  • 0
  • 0
Jesper Louis Andersen

Alt IT her i verdenen kører altså ikke på x86. Der findes ikke så få andre platforme, hvor de fleste er x86 overlegen, på stort set alle fronter, på nær lige antallet af solgte servers.

Men er det grundet CPU'en, eller isenkrammen rundt omkring CPU'en? SPARC har f.eks. ikke været specielt hurtig som CPU beset, men hvis du går efter at trække IO-operationer, så var de ikke så tossede endda.

I Pris/Performance på CPU-siden, eller i Watt/Performance, der kommer Itanium nok temmeligt hurtigt til kort.

  • 0
  • 0
Jesper Frimann

Men er det grundet CPU'en, eller isenkrammen rundt omkring CPU'en?

Både og. Det er jo altid løsningen, der er relevant.

I Pris/Performance på CPU-siden, eller i Watt/Performance, der kommer Itanium nok temmeligt hurtigt til kort.

Price/performance er flere ting er det TCA (total Cost of Akkvisition)/performance eller TCO (Total Cost of Ownership)/performance.

Der er der ingen tvivl om at hvis du går ned og køber en bambus PC-server så ja så bliver det masseproduceret i sådan en grad at du nok får svært ved at få noget som helst andet der kan bliver billigere.

Men faktisk så er price/performance på UNIX faktisk faldet en hel del de sidste år, faktisk så meget at hvis du sammenligner pærer med pærer så er forskellen ikke særlig stor, selv ikke i kunstige benchmark opsætninger.

Prøv f.eks. at sammenligne de to løsninger her fra samme vendor med stort set samme software stack:

http://www.tpc.org/results/individual_results/IBM/IBM-x3850X5-DB2-Linux-... og http://www.tpc.org/results/individual_results/IBM/IBM_780_TPCC_20100719_...

Der er ikke stor forskel i pris. Og på POWER maskinen har du så lige et fuldt virtualizerings lag med i prisen. Og på RAS siden kan du skille maskinen ad mens den kører, der er processor retry af instruktioner og og og ... alt sammen noget som giver dig værdi som kunde men ikke afspejler sig i den price/performance som er nævnt i benchmarken.

Endelig er der så sådan noget som faktisk hardware Utilization, og her er din typiske lintel/wintel server altså bare ikke op i det samme gear som en POWER eller Itanium server vil/bør være. For det er jo et dyrt stykke isenkram, så derfor sørger man for at det er ordentligt utilizeret.

Desuden er din UNIX server måske sådan rent serie nummer mæssigt en hel del år gammel, f.eks. den POWER 780 so bliver brugt i benchmarken her oven for startet tilbage i 2004 som en POWER5 p570, som så i 2008 er blevet opgraderet til en POWER6 power 570, og som så nu er blevet til en POWER 780. Altså de software licenser du engang har købt har fulgt maskinen, og du har ikke skulle køre et nyt projekt der skulle opgradere serveren, men simpelt hen haft en teknikker ude som har skiftet det der nu skulle skifte og så lidt test og wupti, havde du en ny maskine efter en dags nedetid, og så har du så svunget clusteret tilbage og så var det det. Hvorimod du på wintel siden måske startede med en håndfuld 4U servers tilbage i 2004 og så smed du dem ud og .....

Hele køb og smid væk mentaliteten med lavt utilizerede maskiner koster altså kassen, hvis man gider regne efter så vil en god UNIX box/Mainframe eller en anden scale up platform (Og det kan godt være en Lintel maskine, eller en wintel maskine hvis man vil) være billigere, hvis man har behovet for kapaciteten..

// Jesper

  • 0
  • 0
Jacob Christian Munch-Andersen

Du har fundet et eksempel hvor resten af systemet er så dyrt at processorerne drukner i omkostningene. Tillykke med det.

Og så hælder du vand ud af ørerne om alle de ting man gør med sin pebrede POWER server. Siden hvornår har der været noget i vejen for at lave delvise opdateringer af x86 systemer? Eller at bruge kapaciteten for den sags skyld? Det handler jo om hvordan man bruger sine computere, ikke om det er den ene eller den anden arkitektur.

  • 0
  • 0
Jesper Frimann

Du har fundet et eksempel hvor resten af systemet er så dyrt at processorerne drukner i omkostningene. Tillykke med det.

Øh ja ? Det hedder et balanceret system. Selvfølgelig er Jeg siger ikke at min hverdags omgang med server produkter, måske lige afspejler, hvad en lille 10 mands (m/k) virksomhed i Danmark gør. Og selvfølgelig kræver det en del load at kunne udnytte en stor Itanium/SPARC/POWER/Xeon server.

Og så hælder du vand ud af ørerne om alle de ting man gør med sin pebrede POWER server

Måske skulle du lytte lidt, det er jo typisk ting der vil komme på x86 markedet om nogle år.

Siden hvornår har der været noget i vejen for at lave delvise opdateringer af x86 systemer?

Det er der sådan set ikke noget galt i, men som en gut jeg kender siger "RAS is a state of mind". Og en kultur du har i Wintel World er altså en anden end du har i en Mainframe/Tandem/VMS/Highend Unix verden.

Eller at bruge kapaciteten for den sags skyld?

Det kan man også sagtens, og jeg har bare hørt den kommentar så mange mange gange.. og når man så måler og regner folks x86 average utilization ud og summer over aller serverne.. så er den sjældent over 5%. Måske lidt bedre hvis der er et par VMware servers ind imellem. Men hele køb og smid væk kulturen lever i bedste velgående.

Det handler jo om hvordan man bruger sine computere, ikke om det er den ene eller den anden arkitektur.

Det handler især om hvordan man bruger sine servers, det handler dog også om de features og faciliteter, som dit server hardware, virtualizerings lag og OS stiller til rådighed.

Glemmer aldrig det sted hvor IT chefen hårdnakket påstod at han havde 100% oppetid på sine windows servers. Det viste sig så at det havde han fordi det ikke blev målt. Jaaah.. sååå..

Men Midrange/Highend UNIX hardware er ikke for everyone. Og sådan er det.

// jesper

  • 0
  • 0
Jacob Christian Munch-Andersen

Øh ja ? Det hedder et balanceret system.

Vi snakker fx om en computer med 4 processorer, 516 harddiske og 1,5 TB ram. Den er sikkert balanceret til sit anvendelsesområde, men som benchmark for pris/ydelse for forskellige processorer er det ikke et balanceret valg, selv de allermest enterprise-prissatte CPUer vil kun udgøre en lille del af prisen for sådan et system.

Det er der sådan set ikke noget galt i, men som en gut jeg kender siger "RAS is a state of mind". Og en kultur du har i Wintel World er altså en anden end du har i en Mainframe/Tandem/VMS/Highend Unix verden.

Hvilken forskel gør det så med processorarkitekturen? Du kan køre UNIX på computerne og RAS inde i hovedet uanset hvilken arkitektur du vælger.

Det kan man også sagtens, og jeg har bare hørt den kommentar så mange mange gange.. og når man så måler og regner folks x86 average utilization ud og summer over aller serverne.. så er den sjældent over 5%. Måske lidt bedre hvis der er et par VMware servers ind imellem. Men hele køb og smid væk kulturen lever i bedste velgående.

Prøv at få styr på begreberne årsag og konsekvens. Folk udnytter næppe deres hardware bedre blot fordi de får en anden arkitektur, til gengæld hjælper det i reglen hvis tegnedrengen bløder.

Glemmer aldrig det sted hvor IT chefen hårdnakket påstod at han havde 100% oppetid på sine windows servers. Det viste sig så at det havde han fordi det ikke blev målt. Jaaah.. sååå..

.. Så han var nok ikke alt for skarp, men det kan serveren vel ikke gøre for.

  • 0
  • 0
Flemming Riis

(nu kan jeg ikke quote korrekt så...)

-Altså de software licenser du engang har købt har fulgt maskinen

Det er vel typisk ikke korrekt på IBM platformen når tingende er PVU baseret eller har jeg misforstået det ? hvis man får en hurtigere CPU tæller den flere PVU så med mindre man skifter til hurtigere og færre bliver det vel mere kostbart hvis man ikke har performance problemer relateret til cpu

  • 0
  • 0
Jesper Frimann

Flemming Riis:Det er vel typisk ikke korrekt på IBM platformen når tingende er PVU baseret eller har jeg misforstået det ? hvis man får en hurtigere CPU tæller den flere PVU så med mindre man skifter til hurtigere og færre bliver det vel mere kostbart hvis man ikke har performance problemer relateret til cpu

Nu er der jo software og der er software, og der er variationer fra UNIX platform til platform. Og hvis vi helt specifikt tager IBM POWER "IBM platformen" som du skriver. Så følger dine 'system software' licenser dit serie nummer, og du betaler for antallet af cores. Så hvis du har en POWER 570 med 16 cores@4.2-5.0GHz og du opgraderer denne maskine til en POWER 770 med 48 cores med 16 aktiverede så har du licenserne med på system software, på den nemmest tænkelige måde. Den performance du så har per performance enhed er så før og efter som følger:

Power 570@4.2 GHz = 7.7 rperf per core  
Power 570@5.0 GHz = 8.8 rperf per core  
Power 770@3.5 GHz = 11.3 rperf per core

alle ved 16 Cores, og hvor rperf er den regne enhed som IBM bruger til at sammenligne POWER servers. Man kunne også bruge IDEAS internationals RPE2 enhed. Men gennemsnitlig 28-47% bedre throughput.

Nu snakker du PVU, PVU er IBM's regneenhed når vi snakker Software produkter der ikke er system software, eller købt via pakker.

Prisen for en POWER 570 med POWER 6 CPU'er er 120 PVU per core, for en POWER 770 med POWER 7 CPU'er er prisen 120 PVU per core. Så her burde du også se en bedre performance for det samme antal licenser, igen 28-47%. Og hvis du har en DB2 Entreprise edition, kan det sagtens være pengene værd.

Med hensyn til Oracle så koster både en POWER6 og en POWER7 core 1 licens, så der vil du høste den samme gevinst som oven for.

IBM PVU calculation rules: http://www-01.ibm.com/software/lotus/passportadvantage/pvu_licensing_for...

IBM rperf tal: http://public.dhe.ibm.com/common/ssi/ecm/en/poo03017usen/POO03017USEN.PDF

Ja, hvis det virker lidt nørdet så er det her sådan aktuar TCO stuff jeg bla. laver til hverdag, altså sørger for at vores udgifter til IBM og Oracle ikke bliver større end de burde være, så alle links ligger bookmarked i browersen.

Og igen.. flere software licenser end man behøver giver ingen business value, for dit firma.

// jesper

  • 0
  • 0
Jesper Frimann

Jacob Christian Munch-Andersen skrev:Vi snakker fx om en computer med 4 processorer, 516 harddiske og 1,5 TB ram. Den er sikkert balanceret til sit anvendelsesområde, men som benchmark for pris/ydelse for forskellige processorer er det ikke et balanceret valg, selv de allermest enterprise-prissatte CPUer vil kun udgøre en lille del af prisen for sådan et system.

Jeg er ikke helt med. Så du vil helere have et system med (4 chips/processors) 32 cores og 32-64 GB RAM og 16 harddiske ?

Ja så ville CPU delen have udgjort en meget større del af hardware costen. Men software costen ville have været den samme. Men tro mig det ville performance ikke. Desuden ville et RL system måske have et stort dyrt SAN også, med udstyr fra Netapp/EMC/HP/SUN/IBM whatever.

Nu er det her jo en benchmark og ikke et RL system. Men hvis man ser lidt på priserne så kan du se at 1.5TB RAM koster 10% af hvad software licenserne koster. RAM koster ikke noget i software licenser. Så hvis du kan putte en faktor 8 mere ram i din maskine. og få en throughput forbedring på lad os sige en faktor 2. Så er et penge givet rigtig rigtig rigtig godt ud. Igen et balanceret system er bare billigere, især når vi har med software der koster penge at gøre :)=

Hvilken forskel gør det så med processorarkitekturen? Du kan køre UNIX på computerne og RAS inde i hovedet uanset hvilken arkitektur du vælger.

Nu er det meget begrænset hvor meget UNIX der er på x86. Du har x86 Solaris, BSD/MacOS, det er sådan lidt ikke rigtig de OS'er du ser stå og crunche Oracle databaser for større danske virksomhedder, og ej heller for de små.

Og ja du kan godt, til en vis grad, drive din Wintel maskine som om det var en mainframe. Det er bare så sjældent at man faktisk ser det i RL. (Og ja jeg kender nogen der gør det der hvor jeg arbejder REKLAME). Du undervurderer groft, hvor meget ting som f.eks. kultur betyder. En kultur der er bygget op om, at man måske har kørt mission kritical applikationer på den her platform i 20 år.

Prøv at få styr på begreberne årsag og konsekvens. Folk udnytter næppe deres hardware bedre blot fordi de får en anden arkitektur, til gengæld hjælper det i reglen hvis tegnedrengen bløder.

Igen undervurderer du kultur. Og steder med den rigtige kultur kan du da sagtens finde en VMware server der kører med 40% average utilization. De har så bare som regel også noget UNIX udstyr eller en mainframe der kørere med 80%+ utilization. Og ja pris betyder en stor del, selvfølgelig gøre det det. Men arkitektur og software stack betyder også noget. Som da jeg spurgte min Wintel counterpart, der hvor jeg arbejder. Hvorfor bruger I ikke 4 socket maskiner med masive mængder af RAM, men 2 socket bokse med moderade mængder af RAM. (set i forhold til at min standard building block i min 'farm' er 64 Cores og 2TB RAM for det er det billigste alternativ). Jo fordi de ikke kunne nå at vmotion'e virtuelle maskiner hurtigt nok væk fra de fysiske maskiner når de skulle have en kasse ned til service. Hvilket de så har en del mere af end 'vi' har. For jeg kan sagtens sørge for at en skuffe, der indeholder RAM CPU'er IO etc. kan få skiftet bundkort whatever mens resten af maskinen kører videre. Det kan han ikke, med den type maskiner han har. Måske kunne man forestille sig at nogle af de nye Xeon based 'mainframe wannabe' systemer kan nogle af de her ting. Men så er prisen også en helt anden end en midrange UNIX box :)=

Så han var nok ikke alt for skarp, men det kan serveren vel ikke gøre for.

Jo han var skam skarp nok, det var hans Wintel afdeling bare ikke.

// Jesper

  • 0
  • 0
Jacob Christian Munch-Andersen

Jeg er ikke helt med. Så du vil helere have et system med (4 chips/processors) 32 cores og 32-64 GB RAM og 16 harddiske ?

Det ville være mere repræsentativt for gennemsnitlige serverinstallationer.

Når det er sagt så har du ret i at visse softwarelicenser hjælper til at holde liv i nogle skæve systemer, samt tilhørende arkitekturer.

Mht. resten af dit indlæg, du bliver ved med at snakke om kultur, jeg har svært ved at se hvordan det er andet end et argument for billig hardware. Kulturdelen af din installation er jo netop det andre ikke kan få med blot ved at vælge lignende hardware.

  • 0
  • 0
Jesper Frimann

Jacob Christian Munch-Andersen

Det ville være mere repræsentativt for gennemsnitlige serverinstallationer.

Hvad skal jeg sige ud over, at det nok siger ikke så lidt om det skill niveau der generelt er rundt omkring i industrien, når det kommer til sizing og TCO beregninger for løsninger. Ofte er det dog i større virksomheder, mere et udtryk for en manglende respekt for visse tekniske discipliner og en forståelse for hvordan Økonomien i IT hænger sammen. Feks. kan en indkøbs afdeling ofte fordyre TCO for en løsning fordi de ikke forstår de dybere sammenhænge og sparer de forkerte steder. Og hardware er en af disse, ofte udgør server hardware kun 5-10% af den samlede løsnings pris, men selve konfigurationen kan have stor effekt på andre cost elementer som f.eks. software licenser.

Som jeg har sagt flere gange kultur, i mangel på et bedre ord.

Når det er sagt så har du ret i at visse softwarelicenser hjælper til at holde liv i nogle skæve systemer, samt tilhørende arkitekturer.

'Skæve systemer'? Jeg tror nu nok nærmere at det er x86 systemerne der er de skæve her. Bare fordi fast food restauranterne, sælger bunker med mad gør jo ikke maden sundere eller billigere. Det er lidt det samme med de fleste x86 servers der bliver langet over disken her i Danmark. Ikke at du ikke godt kan købe en god solid x86 server, men det er et niche marked, hvor pris slet ikke står mål med performance, set i forhold til f.eks. Større UNIX kværne.

Mht. resten af dit indlæg, du bliver ved med at snakke om kultur, jeg har svært ved at se hvordan det er andet end et argument for billig hardware.

Du viser jo netop med din udtalelse her, at der er en stor forskel på kultur mellem dig og mig.

Mit job der hvor jeg arbejder er at gøre tingene så billigt som muligt. No shit. Men kulturen, hvor jeg arbejder er, at det skal være TCO der skal være så lav som mulig. Det vil sige alt fra utilization, strøm forbrug, antallet af netværks porte, SAN porte, floor space, antallet af lukke vinduer per år, installations og dokumentations forbrug, antal sysadmin timer per fysisk server. etc etc etc. skal regnes med. så ja det betyder at der bliver lavet 'aktuar lignende' beregninger på, hvad der kan betale sig. Selvfølgelig er det lidt anderledes end et lille 10 mands (m/k) dansk firma.

Kulturdelen af din installation er jo netop det andre ikke kan få med blot ved at vælge lignende hardware.

Sådan kan man jo godt udtrykke det. Men når du nu har en kultur, der skal optimere TCO, så er min påstand at du automatisk bliver skubbet mod bedre og større hardware. Fordi du får noget for pengene der, nemlig en hardware der kan modstå fejl, har indbygget redundans og kan skalere på en måde som billig hardware ikke kan.

Det er vigtigt at forstå, at hvis du har 1 million kroner du skal lave en løsning for, så er det torske dumt at bruge 950.000 på software licenser level, og 50.000 på crap hardware, hvis du kan nøjes med at bruge 500.000 på software licenser for samme funktionalitet, og så 500.000 på noget kvalitets hardware. Hvorfor ? Jo for det godt hardware giver dig værdi, det gør det IKKE at betale for ekstra licenser. Der er INGEN så absolut ingen værdi at betale for 10 licenser hvis du kan nøjes med 5.

// Jesper

  • 0
  • 0
Jacob Christian Munch-Andersen

Altså, kæmpe mængder ram og harddiske giver jo kun mening hvis man faktisk arbejder med så store datasæt. En computer er i den henseende skæv hvis forholdet mellem lager og processorkraft ikke afspejler den faktiske brug.

Du snakker TCO, men ender alligevel med at trumfe med licensomkostninger, en ren favorisering fra softwareleverandørens side som ikke har noget med hardwarens TCO/ydelse at gøre.

  • 0
  • 0
Jesper Frimann

Altså, kæmpe mængder ram og harddiske giver jo kun mening hvis man faktisk arbejder med så store datasæt. En computer er i den henseende skæv hvis forholdet mellem lager og processorkraft ikke afspejler den faktiske brug.

Ja. Nu handler artiklen jo om Business software fra Oracle, ikke små hjemmestrikkede programmer, der kan ligge og køre i cache. Hvis der er noget en Oracle database kan li',eller f.eks. WebLogic også fra Oracle, så er det RAM. Og hvis der er noget en Oracle database kan li' så er det low latency storage, der kan lave rigtig mange IO operationer. Og det betyder som regel et større antal spindler og/eller en seriøs disk boks der koster kassen.

Det er lidt som med en bil, en større motor kræver også at resten af bilen er sized efter motoren. Det være sig bremser, sikkerhedsudstyr, dæk, gearkasse etc.

Du snakker TCO, men ender alligevel med at trumfe med licensomkostninger, en ren favorisering fra softwareleverandørens side som ikke har noget med hardwarens TCO/ydelse at gøre.

Undskyld hvis jeg bliver lidt hård. Men hvad er det du ikke forstår ved conceptet Total Cost of Ownership ?

Det er jo netop 'Total'. Man køber jo ikke maskiner for at stille dem i kælderen og så ellers lade sysadminen sidde og se hvor hurtigt han kan skrive 'ls'. De skal no netop bruges til et formål, typisk at køre en forretnings applikation. Derfor skal du også regne Strøm, køling,software licenser, administrations omkostninger, nedskrivninger, utilization, support cost, cost af nedetid etc etc etc. med for at få TCO billede.

At bare se på, hvad det koster at købe en maskine uden at bruge den til noget er lidt en pointless akademisk øvelse.

// Jesper

  • 0
  • 0
Jacob Christian Munch-Andersen

Du har ret, hardwarens TCO er noget vrøvl.

Det jeg mente var alle omkostninger bortset fra licenser, det må være den retfærdige målestok for en platform. Så hvis du skal vise at en dyr platform er overlegen skal du altså stille et regneeksempel op hvor driften opvejer indkøbsprisen, det er for nemt at sige at softwaren er billigere.

  • 0
  • 0
Thomas Ammitzbøll-Bach

Det er lidt som med en bil, en større motor kræver også at resten af bilen er sized efter motoren. Det være sig bremser, sikkerhedsudstyr, dæk, gearkasse etc.

Godwin law for Version2:

En langtløbende diskussion vil på et eller andet tidspunkt resultere i, at den ene part fremkommer med en analogi om biler.

Thomas

  • 0
  • 0
Jesper Frimann

Det jeg mente var alle omkostninger bortset fra licenser, det må være den retfærdige målestok for en platform. Så hvis du skal vise at en dyr platform er overlegen skal du altså stille et regneeksempel op hvor driften opvejer indkøbsprisen, det er for nemt at sige at softwaren er billigere.

Nej, det vil stadig være TCO. Software er en stor del af dette så det kan du ikke komme uden om....

Eller .. lad mig give dig en hånd, du kunne jo sige, at f.eks. en LAMP stack ville billedet se anderledes ud end for en Oracle software stack.

Og ja der ville software prisen jo være en helt anden. Og så ville de andre cost elementer skulle kunne bære en dyr server. Og det regnestykke har jeg lavet for det koncept jeg arbejder med og det giver ikke det samme billede, som med en dyr software stack, men big iron er stadig billigst for os.

Det regnestykke kan jeg jo så ikke lave for dig, da jeg jo så vil afsløre forretnings hemlighedder. Så der kommer vi ikke videre.

// jesper

  • 0
  • 0
Thomas Ammitzbøll-Bach

[quote] En langtløbende diskussion vil på et eller andet tidspunkt resultere i, at den ene part fremkommer med en analogi om biler.

Skulle jeg have brugt øl i stedet ? [/quote]

Haha, øl er godt. :-) Din analogi er god nok, der er bare tit bilanalogier i debatten her, og nogle af dem falder bedre ud end andre.

Det er nemlig med analogier som med biler: Når de bliver slidte, så støjer de mere i debatten :-)

Thomas

  • 0
  • 0
Log ind eller Opret konto for at kommentere