Endnu en region vil bygge nyt datacenter: Drift flyttes til stor hal med to serverrum i Kolding

Illustration: Region Syddanmark
Region Syddanmark dropper datacentre i hhv. Odense og Esbjerg og flytter it-drift til nyt datacenter på 600 kvadratmenter ved Kolding Sygehus.

Opdateret 11. dec. kl. 10.16.

Det ligner en tendens i regionerne, når Region Syddanmark nu fortæller, at man netop har taget første spadestik til et nyt datacenter på ca. 600 m2 plus teknikinstallationer, der skal stå klar i august 2019. Datacentret placeres ved Kolding Sygehus, oplyser regionen i en meddelelse.

Datacenteret, der giver fysisk plads til 100 rackskabe. bliver base for et it-miljø med servere, som kan køre alle regionens it-systemer på bl.a. sygehusene. Det betyder samtidig, at aktiviteter fra to datacentre i hhv. Odense og Esbjerg flyttes til det nye datacenter, der ligger v. Kolding Sygehus.

Formand for Digitaliseringsudvalget Mette Bossen Linnet, Region Syddanmark, understregede i sin tale under spadestiksceremonien, at datacenteret er et vigtigt fundament for sundhedspersonalets arbejde og den daglige drift på sygehusene:

»Vores sundhedspersonale er dybt afhængige af, at it-systemerne ikke er nede, når de står med patienters liv i hænderne. It-systemerne skal være tilgængelige og fungere hele tiden. Det nye datacenter kommer til at have stor betydning for patientsikkerheden, fordi det bliver bygget, så det har et meget højt funktionalitets- og oppetidsniveau, som giver en stabil drift,« siger hun ifølge meddelelsen.

Byggeriet forventes at koste 30 millioner kroner, fortaltet JyskeVestkysen i august.

Region Syddanmark er ikke alene om at have ambitioner på området for datacentre. Version2 kunne i maj fortælle om en nyt dobbelt datacenter i Gødstrup i Region Midtjylland, hvor ambitionen er at nå op på et niveau, som er i en 'international klassifikation af it-datacentre'. Her bliver hvert datacenter på ca. 500 m2.

Læs også: Region Midtjylland erstatter fire gamle datacentre med én ny datacenterhub

Region H har ikke en decideret plan om nye datacentre, men har dog luftet visioner om at outsource hele sin it-infrastruktur.

Læs også: Region H vil outsource hele sin it-infrastruktur: Er i dialog med indisk gigant

Et datacenter til fremtidens krav

I sin tale til opstart af det nye datacenter i Kolding forklarede formand for Anlægs- og innovationsudvalget Karsten Uno Petersen, Region Syddanmark, hvorfor man har valgt at nedlægge de to nuværende datacentre i Odense og Esbjerg for i stedet at opføre ét samlet datacenter i Kolding:

»At bygge et nyt datacenter giver os mulighed for at designe datacentret efter moderne principper. Dét vil have stor betydning for stabiliteten i driften, tilgængeligheden af vores it-systemer og ikke mindst datasikkerheden.«

»Det moderne design kommer også til at gøre datacentret mere energieffektivt, hvilket vil betyde, at vi sparer et sted mellem 2,5 og 3 millioner på driften af datacentret – hvert år. Med andre ord betaler investeringen sig selv tilbage på 8-10 år.«

Brancheforeningen af it-virksomheder, IT-Branchen, anfører i en kommentar til Version2, at datacentermarkedet er præget af mange af leverandører i skarp konkurrence, og at det »i den grad vil forvride konkurrencen«, hvis regionen bygger eget datacenter og drifter egne it-løsninger.

»Det er svært at tro, at regionen kan gennemføre etablering, drift og vedligehold lige så effektivt som de professionelle aktører,« argumenterer IT-Branchen.

Regionen oplyser til Version2, at de to gamle datacentre, som ligger hhv. på Odense Universitetshospitals område og på Sydvestjysk Sygehus, i Esbjerg, nedlægges fuldstændig. Bygninger og matrikel vil dog fortsat være en del af sygehuskomplekserne. Det er uafklaret, hvilken aktivitet der skal foregå på disse lokationer i fremtiden.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Kommentarer (15)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Morten Fordsmand

men man bør altid have mindst 5 kilometer mellem datacentrene

Det er der nu mange holdninger til, og det afhænger af en lang række faktorer som blandt andet indeholder: - lokal geografi omkring centrene, - om du har behov for synkron spejling af data og i så fald hvilken latancy din workload kan klare - hvor stort et område du servicerer fra dit datacenter.

og så skal man i øvrigt huske hvordan afstand måles? Er det fiberlængden Er det køretiden Er det det fugleflugt?

  • 0
  • 0
Hans Nielsen

Og ja, det føles helt klart i hverdagen når ens file-server står ca. 800 km borte, uanset hvor stor båndbredde man måtte have ;-(.

Nu kan man komme uden om latcy og andet, ved at have lokal spejl, af det som bruges. Hvis der er "ren" fiber hele vejen, så tror jeg at forsinkelse kan være mindre i et sådan , end hvis man har en switch eller 2 mere som man skal igennem. De kan også nemt give mere latacy, end de 3-4m/s i fiber

  • 0
  • 1
Morten Fordsmand

Nu kan man komme uden om latcy og andet, ved at have lokal spejl, af det som bruges.

Ikke hvis du har et behov for ikke at miste commitede transaktioner selv om du taber et datacenter, for det kræver netop at skrivinger bekræftes fra begge disksystemer. Man skal altså mindst frem og tilbage mellem datacentrene en gang for hver skrivning.

Hvis vi regner overhead for en fiberafstand på 25 km skal vi altså lægge 50 km fiberafstand ind ekstra i hver skrivning. det giver 50000/ 300.000.000 hvilket giver 0.17 ms ekstra per skrivning. Det lyder ikke af meget men da en normal transaktion indeholder mange skrivninger kan det være et problem.

  • 2
  • 0
Jesper Frimann

Man skal altså mindst frem og tilbage mellem datacentrene en gang for hver skrivning.

Jup, og mindst frem og tilbage. Jeg har set implementationer, hvor 1 applikations skrivning, blev til 5 skrivninger + 2 læsninger (fysiske). Og hvor man så ventede til alt var færdigt, før skrivningen var 'committet'.

Altså man venter på worst case. Se det kan blive rigtig grimt. Især når vi snakker om applikationer med 80% skrivninger og tung IO traffik.

// Jesper

  • 2
  • 0
Michael Cederberg

Nu kan man komme uden om latcy og andet, ved at have lokal spejl, af det som bruges. Hvis der er "ren" fiber hele vejen, så tror jeg at forsinkelse kan være mindre i et sådan , end hvis man har en switch eller 2 mere som man skal igennem. De kan også nemt give mere latacy, end de 3-4m/s i fiber

Hvis du har en database hvor du registrerer transaktioner og ønsker et synkront spejl på en anden lokation, så vil latency i en række situationer have stor indflydelse på performance. Og i de situationer kan man ikke bare have et lokalt spejl. Man kan købe switche og andet netværksudstyr med latency nede i området 1 us hvis latency er vigtigt.

Man kan designe selvfølgeligt applikationer der er mere immune overfor latency, men det skal være et design krav fra starten. Ældre database baserede applikationer vil i en række situationer være meget sensitive overfor network latency i situationer hvor et synkront spejl er ønskværdigt.

Latency er en af de begrænsninger vi må leve med og en af de få hvor der sker meget lidt udvikling og hvor der er en øvre grænse.

  • 1
  • 0
Hans Nielsen

Altså man venter på worst case. Se det kan blive rigtig grimt. Især når vi snakker om applikationer med 80% skrivninger og tung IO traffik.

Måske udvikler skulle se lidt på hvordan server der håndtere gaming fungere :-)

Som jeg forstår det så deler man vel ikke samme opgave, ud på 2 data centre, det virker helt tåebligt, men det ene skal stå klar som backup ? Du henter jo normalt heller ikke data fra flere server på google, men der findes flere backup et andet sted i verden. De køre så tilgæld lokal trafik til dem som er nærmest på dem.

Men vil give jere ret i at Latacy er et problem, men hvis vi snakker store data mængter, så kan latacy på noget som ligger på en harddisk på en lokal server, være større, end hvis det ligger i hukommelsen på serveren ude i byen.

I har sefølgeligt ret i jeres betragninger, i arbejder med det til dagligt, har ikke selv haft med meget store database og spejling at gøre. Men kommmer noget af problemmer ikke fra at softwaren og systemer ikke er bygget til at stå så langt fra hinanden. og måske skal tungt I/O trafik kun køre lokal ?

En løsnings på problemet med spejling og mistet forbindelse. Hvis man har styr på sin data og tidstemple, så validere man ikke data og låser den ene side i read/only når forbindelsen går. Det betyder at den ene side stadig kan arbejde videre med de "rigtige" data. Mens den anden om ikke andet, kan fortage opslag i data.

Men forstår dog ikke at software ikke er mere moden, eller er det forkert valg af software ? Vi kan sende en bil til mars som kan arbejde alenne i flere dage uden kontakt. Så kan vi også løse dette, hvis det ikke er løst ?

Hvis vi feks snakker sunhedsdata, så er det jo bare at give ejerskab til data, til der hvor det er vigtigt og i brug. Det vil sige at det lokale sygehus som mister forbindelsen, ikke kan ændre i ikke indlagte personers data. Men dem som der er indlagt eller under behandling har de ejer skabet over. Når forbindelsen genoptages så opdateres database. Hvis vi snakker akut patienter, så findes der forhåbeligt også (snart) en lokal kopi med vigtigste data, som blodtype, allegier og sygedomme/historik til brug.

Men synes nu tit jeg mere høre om server swap, som har har fået det hele til at gå meget mere i ged som ved BA - Eller sker der dagligt uplanlagt automatisk swap helt uden problemmer, og det er bare ikke noget vi høre om, kun når det går helt galt ?

  • 0
  • 1
Michael Cederberg

Men forstår dog ikke at software ikke er mere moden, eller er det forkert valg af software ? Vi kan sende en bil til mars som kan arbejde alenne i flere dage uden kontakt. Så kan vi også løse dette, hvis det ikke er løst ?

Hvis man går rundt på et Hospital så dukker der meget software op som er meget meget gammelt. Det er dyrt at skifte ud. Det gør man ikke lige. Sådan er store virksomheder. De har tusindvis af gamle IT systemer som blot kører og som ikke lige kan skiftes ud med noget nyere.

Men kommmer noget af problemmer ikke fra at softwaren og systemer ikke er bygget til at stå så langt fra hinanden. og måske skal tungt I/O trafik kun køre lokal ?

Man kan gøre meget i software, men grundlæggende er problemet at hvis man vil skrive noget til et data store (fx. en database) på en sikker måde, så skal man have flere servere til at sige at de har modtaget data. Disse skal stå geografisk adskilt. Dermed bliver "commit"-tiden mindst maximum af latency på de involverede servere.

Derfor kan man også købe proxier til nogle databaser. Proxier der ikke står i det fjerne datacenter men i nærheden af det nære datacenter uden at være indenfor. I sådan en løsning skal blot proxien og den nære database sige ok for commit. Men det er kompliceret og dyrt.

Det vigtigste man kan gøre for at reducere omkostninger ved latency er at lade være med at låse, lade være med at lade transaktioner være afhængige af hinanden (hvis det er en database) og reducere antallet af commits til det minimale.

  • 1
  • 0
Jens Jönsson

Jow jow, altid interessant når det offentlige her i form af Region Syddanmark mener at de kan gøre det bedre og billigere end det private erhvervsliv, og især nogle private erhvervsvirksomheder der har det som kærneområde, modsat hvad Regionen har.

Der er så mange ting der skriger til himlen....

[quote]»Det moderne design kommer også til at gøre datacentret mere energieffektivt, hvilket vil betyde, at vi sparer et sted mellem 2,5 og 3 millioner på driften af datacentret – hvert år. Med andre ord betaler investeringen sig selv tilbage på 8-10 år.«[quote].

Problemet er bare at om 3-4 år, er det ikke særligt energieffektivt, bla. pga. den lille størrelse, og så vil de alligevel ikke spare en dyt. Måske de så bare bygger nyt igen til den tid ?

  • 0
  • 0
Nis Peder Bonde

IT-brancheforeningen kritiserer, at Region Syddanmark bygger eget datacenter frem for at benytte private udbydere af datacentre. Argumentet er, at regionen ikke kan gøre dette så omkostningseffektivt som private udbydere.

It-brancheforeningen er selvfølgelig sat i verden for at sikre deres medlemsvirksomheder optimale forhold, så de kan tjene flest mulige penge. Derfor skal man se alle deres udmeldinger i det lys.

Man kunne nemt forestille sig, at regionen havde lagt helt andre parametre end økonomi til grund for beslutningen. Med den nye GDPR forordning kan det jo også skyldes en risikovurdering, som kan have vist, at regionen bedre kan begrænse den fysiske adgang til datacentret til et absolut minimum af betroede medarbejdere, hvis man selv bygger og driver sit eget datacenter.

Den form for sikkerhed kan It-brancheforeningens medlemmer jo i sagens natur ikke tilbyde. Så måske hænger strategien om eget datacenter sammen med, at man har prioriteret informationssikkerheden højt.

  • 2
  • 0
Log ind eller Opret konto for at kommentere