Vestas: Vi ville gerne køre supercomputer i skyen - men det findes ikke

Supercomputeren er en kritisk del af Vestas’ forretning, men det at drive en supercomputer er ikke essentielt, men blot en nødvendighed.

LAS VEGAS: Vindmølleproducenten Vestas er lige nu i færd med at indkøre en nyindkøbt supercomputer. Specifikationer og benchmarks er ikke offentliggjort endnu, men det skyldes også, at supercomputeren er en kritisk brik i forretningen for Vestas. Eller rettere, resultaterne er kritiske, selve computeren er i princippet blot et nødvendigt onde.

»Vi har faktisk ikke behov for at have supercomputeren stående. Hvis den fandtes som en cloud-tjeneste, så ville jeg med glæde vælge det, men det skal give økonomisk mening,« forklarer Anders Rhod Gregersen, ansvarlig for Vestas’ afdeling for supercomputing og tung databehandling, til Version2.

Med enorme datacentre hos Amazon Web Services, Microsoft, IBM og mange andre cloud-udbydere kan det lyde underligt, at der ikke skulle være regnekraft til at dække Vestas’ behov.

Problemet er, at i princippet kunne big data-delen af Vestas’ databehandling klares af den type computere, der udgør de store cloud-datacentre. Det er beregninger, hvor de enkelte noder ikke skal udveksle data hele tiden.

Men Vestas laver også simuleringer og andre beregninger, hvor noderne skal kommunikere, og det kræver et netværk som eksempelvis Infiniband med meget høj kapacitet. I Vestas’ supercomputer deler blot to noder et uplink til netværket for at kunne håndtere trafikken.

Vestas indsamler data fra 35.000 af de vindmøller, selskabet har opstillet over hele verden. Hver turbine kan indeholde op til 1.000 forskellige sensorer, og nogle af dem sender data hele tiden til Vestas. Det betyder, at Vestas i alt modtager 50 millioner målepunkter hvert sekund.

»Vi arbejder med data på petabyte-niveau, så med de datamængder, vi skal håndtere, skulle vi bruge staging-systemer til både data ind og data ud, hvis det skal ligge i skyen,« siger Anders Rhod Gregersen.

Data i sådan en mængde er ikke en triviel storage-udfordring, og derfor er det heller ikke noget, cloud-udbyderne tilbyder. Vestas har investeret i et Isilon-storagesystem fra EMC for at kunne lagre og arbejde med de mange petabyte.

Dataene omfatter blandt andet vejrdata, som Vestas har indsamlet gennem årene. De er blevet brugt til at lave en vejrmodel, der detaljeret kan beregne, hvordan vindhastighederne har set ud et sted på kloden siden 1. januar 2000.

Læs også: Vestas' supercomputer finder den bedste bakketop til vindmøllen på 5 minutter

Det bliver brugt til at hjælpe kunderne med at placere vindmøllerne optimalt for at undgå turbulens. Andre data bruges til at justere de enkelte vindmøller, så en vindmøllepark giver det bedst mulige output under de givne forhold.

Læs også: Sådan får Vestas værdi ud af Big Data

Det er de produkter, der er kritiske for Vestas’ forretning, og de bygger på indsamlede data. Det er også grunden til, at Vestas ikke blot kasserer de data, der kommer ind, når de har været gennem analyserne.

»Den største værdi, vi kan vride ud af vores data, er noget, vi ikke har tænkt på endnu. Det er derfor, vi gemmer alle vores data. Det er mange petabytes, og det bliver ved med at vokse,« forklarer Anders Rhod Gregersen.

Devops og bimodal it

Den første supercomputer kom til Vestas i 2008, og i kølvandet på den kom også behovet for at arbejde med it på en ny måde. Tidligere havde it primært skullet understøtte driften af virksomheden, men supercomputeren skulle bruges til at levere nogle digitale ydelser, der skulle hjælpe Vestas i den stigende konkurrence.

»Vi begyndte i 2008 at køre med devops-modellen ved siden af den traditionelle it-drift. Det blev der set lidt skævt til. Men det er udviklingsafdelingen, der kører devops, og det hører ikke ind under økonomiafdelingen sådan som den almindelig it-drift gør det,« forklarer Anders Rhod Gregersen.

I dag kører Vestas derfor med det, der også kaldes bimodal it-drift. Det vil sige, at visse ting køres som devops, mens andre ting køres på traditionel vis. Begge metoder har nemlig deres styrker og svagheder.

»På den ene side vil du i en statisk verden kunne finde en optimal måde at køre noget på. Men på den anden side har du også brug for at kunne forandre dig og have en digital side af din forretning,« siger Anders Rhod Gregersen.

Mens det eksempelvis ikke er oplagt at køre et ERP-system efter en devops-model, så vil et system, hvor nye funktioner er konkurrenceparametre, trives bedre med en hurtig opdateringscyklus snarere end stabilitet og lave forudsigelige omkostninger.

Læs også: Analysehus: Bimodal it er strategisk bommert

Devops-modellen kan også være nyttig til at få udviklerne til at sørge for at udvikle et system, der er til at køre og vedligeholde, fordi de selv er involveret i hele systemets livscyklus.

Vigtigst er dog, at devops giver mulighed for at reagere hurtigt på udviklingen i markedet.

»Vi har ikke råd til, at en konkurrent kommer ind og angriber os fra den digitale front. Der er dygtige startups i Silicon Valley, som arbejder med continous delivery. Dem kan du ikke konkurrere med, hvis du arbejder traditionelt med it-drift,« siger Anders Rhod Gregersen.

Udfordringen i en stor organisation som Vestas er så at få de to typer it-drift til at fungere side om side. Den traditionelle it-drift har sin styrke i lav risiko på alle punkter, og det er stadig vigtigt, for ved at reducere omkostningerne til løbende drift kan man frigive ressourcerne til nyudvikling.

»Organisationen skal forstå nødvendigheden af bimodal it-drift. Vi har begravet stridsøksen mellem de to,« siger Anders Rhod Gregersen.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Følg forløbet
Kommentarer (9)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Nikolaj Brinch Jørgensen

IBM Softlayer og ProfitBricks tilbyder Infiniband hvor du i skyen kan leje en supercomputer, så enten har man ikke undersøgt sagen godt nok, eller også er der andre grunde til at man vil have sin egen supercomputer.

  • 1
  • 0
Peter Rosenberg

Hvis virksomheden ønsker egenkontrol over sin IT !
Tænk stort ! Kig på hvad CERN har udviklet og på simple betingelser (oftest) stiller til rådighed for offentligheden. Kendte eksempler nævner jeg ikke, men mon ikke:
http://knowledgetransfer.web.cern.ch/technology-transfer/external-partne...
og deres Filsystem implementering, der muliggør parallel afvikling af beregninger i 10000-vis noder med millioner af filer, skulle kunne dække det umiddelbare behov ?
Så mit råd er: Skip EMC og andre storage producenters kommercielle produkter, og tag ansvaret selv, hvis det er vigtigt for virksomheden.

  • 1
  • 0
Joe Sørensen

Nok noget lign. det de kører med pt?


Jep, det er det. Men det er den gamle supercomputer.
Som det står i artiklen, så er de lige nu i færd med at indkøre en nyindkøbt supercomputer. Og den er endnu større. :-)

Skip EMC og andre storage producenters kommercielle produkter


Det er måske ikke det bedste råd, eftersom EMC nok har bedre ekspertise i at bygge storage end det de selv kan opfinde. Support kan være en rar ting. Husk på at det er en jysk virksomhed. Meget stor datamængde på jysk betyder astronomiske mænger af data i common language.

Mit råd vil være at sikrer sig at man har det bedste. Hvis man har in-house folk der kan skrue noget bedre frem, så lad dem vise det. Hvis ikke, så køb det bedste.

Men du har ret i, at man kan støde på "professionel" produkter, som ikke er bedre end noget man selv kunne flække sammen af almindelig tilgængelig hardware og Open Source Software. Så rådet er: Køb det bedste, ikke det dyreste.

  • 1
  • 0
René Løhde

Der er ydelser som understøtter MPI Applikationer hos AWS, Azure og Softlayer. Samtidigt har både AWS og Azure homogene storage strukturer spredt over hele verden med både struktureret og ustrukturet support.

Mangler der noget info I artiklen? ...for denne subjektive udlægning af public clouds HPC begrænsninger lyder ....well, meget subjektiv.

  • 0
  • 0
Nis Schmidt

Softwareudvikling har altid været bagud i forhold til hardware. Blandt andet fordi ledelser mest ser på teoretiske kapaciteter og industribenchmark; i stedet for at se på hvor effektivt software udnytter hardware-mulighederne.

I den tid, hvor Moore's lov har løst performance ploblemer, er software performance blevet ignoreret. Men de fysiske, økonomiske og praktiske grænser for hvor langt den vej kan følges er ved at være slut. Intel ser ud til at stoppe ved 10 nm - for nu, men megt under 5 nm kommer man nok ikke for menneskepenge.

At Vestas ikke vil lade deres data flyde i skyen er helt forståeligt med dagens priser.

  • 1
  • 0
Peter Rosenberg

Det er måske ikke det bedste råd, eftersom EMC nok har bedre ekspertise i at bygge storage end det de selv kan opfinde. Support kan være en rar ting.


Men EMC skal matches med interne medarbejdere, der skaber den nødvendige sikkerhed for indkøbte løsninger af den art. Min kommentar skal forstås, at det hurtigt løber op, og det måske bedre kan betale sig at beholde ekspertisen for det hele, in-house. Det er jo en ingeniør-tung virksomhed, så mon ikke et hold på 4-6 personer kan få dette op at køre.
Jeg ville gerne se den risiko vurdering der må ligge bag beslutningen om udefra-købt storage (og services) tager højde for den risk der kaldes Vendor-Lockin vs. Inhouse service, især når man tager IT virksomheders generelle levetid i betragtning..

  • 1
  • 0
Troels Arvin

Man må sige, at der virkelig er tale om big data her.

For 2½ år siden benyttede Vestas angivelig Hadoop til håndtering af de store datamængder: https://www.version2.dk/artikel/vestas-supercomputer-finder-den-bedste-b...

I denne nyeste artikel nævnes Hadoop ikke; tværtimod nævnes Isilon, som man vel typisk ikke ser i Hadoop-sammenhæng. Er de gået bort fra Hadoop, eller har de flere forskellige setups til data-processering? I så fald kunne det være interessant med en follow-up artikel om, hvad de bruger til hvad.

  • 0
  • 0
Log ind eller Opret konto for at kommentere
IT Company Rank
maximize minimize