For lidt RAM i serverne forsinkede politi-it-system i tre år

Illustration: REDPIXEL.PL/Bigstock
Rigspolitiets Raven-system, som håndterer data fra logningen fra teleselskaberne, blev forsinket i årevis, fordi serverne var underdimensionerede.

Rigspolitiets Raven-system, som håndterer de store mængder data, som teleselskaberne indsamler i forbindelse med lovkravet om telelogning, skulle have været taget i brug i 2007, men serverne kunne ikke klare systemet. Det skriver Computerworld.

Systemet skulle have kørt på to Fujitsu-servere med Windows 2003 Server og Microsoft SQL Server, men det viste sig, at de to gigabyte RAM, som serverne var konfigureret med, ikke var nok til at håndtere den store database.

Især gav søgning i systemet problemer, fordi det foregik på disk og udløste store mængder diskaktivitet, som systemet ikke var gearet til.

Et svar fra Microsoft til leverandøren af Raven-systemet lyder da også, at serverhardwaren skal være dimensioneret til det, hvis man ønsker at søge i indekserede data.

Selvom problemet med serverhardwaren blev opdaget i efteråret 2007, var serverne ikke opgraderet med mere RAM før i foråret 2008, og Raven-systemet kom først endelig i drift i 2010.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Kommentarer (21)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Ivo Santos

De kunne ligeså godt have spurgt enten Facebook, Google, eller et af de store selskaber hvilket server system der vil passe til den pågældende opgave, for det er muligt at den for eksempel kan håndtere 5000 exchange brugere, men jeg vil mene at der til Rigspolitiets Raven-system så bør et datacenter være et minimumskrav.

  • 0
  • 2
Jesper Louis Andersen

Tricket er sådan set bare at hælde 128Gb eller mere i maskinen. Så kan du have stort set alt i memory og dermed er selv tunge table scans noget der kan udføres uden at det går galt. Hvis det ikke er nok, køber du bare noget mere RAM.

Det er lidt kedeligt at programmere i den verden, for alt er nemt, men på den anden side gør det programmeringen så meget mere til en leg.

Det er iøvrigt også hvorfor man kan grine lidt når folk siger de har en stor database med et datasæt på under 100 gigabyte :P

  • 1
  • 3
s_ mejlhede

Tricket er sådan set bare at hælde 128Gb eller mere i maskinen. Så kan du have stort set alt i memory og dermed er selv tunge table scans noget der kan udføres uden at det går galt. Hvis det ikke er nok, køber du bare noget mere RAM.

Når noget er gratis eller meget billig så bruger du også løs af det, så dårlig programmering kan spise din billige ram op, som du også skrive, alt er nemt.
- Med hensyn til store data sæt, spørg teleselskaber, om data sæt til beregning af telefon regninger.

Men i den her sag, krymper man tær, enten er det en "god" forklaring og undskyldning på at man ikke har brugt de data som man ved lov har påbudt,
ISP'er at indsamle, da man ved de ikke har noget værdi.

Men en 5 år forsinkelse på noget så "vigtigt" som en del af anti terror loven, hvem/hvilke selskaber/personer er bleven fyret i forbindelse med dette ?
Er den/de ansvarlige fyret, eller er han/de bare flyttet/ansat til chef på det næste store offentlige EDB projekt.

Hvem betaler de 5 år forsinkelse, vi hvis vi bliver ramt af terror ?
Nå har heldigvis aldrig troet på den logning lovgivning, men at et så ynkelig forsøg også skulle koste så meget, og tage så lang tid, det forstår jeg ikke.

  • 3
  • 0
Claus Jacobsen

2GB var faktisk en pæn sjat i 2007. Det var jo ikke lige 2013. Det maksimale dengang var lige omkring de 12GB i en server. At det dengang ville have kostet omkring 100.000 at smide i serveren er nok så en anden sag. Typisk ville en 2GB klods (som der jo så skulle 6stk af i) ligge omkring 8-15.000 da det var det højeste man kunne få dengang.

Men man kan så undre sig gevaldigt over at der er nogen der kan skalere så enormt forkert. Det må have været en flok amatører der har skullet skalere de servere.

OG så er der jo lige det med IOPS. - Den har vi jo haft før (polsag) Dengang var det kun en hel VÆG fyldt med diske der ville kunne klare opgaven. (og ikke så meget rammen!) DET ville til gengæld have været en ekstremt bekostelig affære. SCALE-OUT SAN løsning på den størrelse kostede LET 5-10mio dengang for at kunne dække behovet. Og grunden til at der ville skulle være scale-out var fordi jeg har på fornemmeren der var så stort et iops behov (som der står havde de kløjs lidt i DB-kald igen igen. Var det CSC der skulle levere løsningen?) at det ikke ville kunne klares af en HP EVA eller en større IBM løsning, så man ville skulle tanden højere op og have flere controllere med diskhylder.

I dag er det jo peanuts. Men det var det dælme ikke i 2007. Er du gal der er sket meget på den front de sidste 6 år.

  • 1
  • 1
Claus Jacobsen

Det kan meget vel være - men hvis i gad kigge efter så er maks rammængden på en HP DL380 fra 2007 12GB ram. (det var så en GEN4, Gen5 kom først i 2010 med mulighed for 64GB) og jo - rampriserne faldt gevaldigt hurtigt dengang. deres gen3 model kunne også klare 12GB ram, men den kom allerede i 2004. Der var nogle rigtigt store GAPs dengang. Men det var også dengang RISC-baserede cpu'er havde deres stormagtstid og Intel først for alvor var ved at komme op i omdrejninger i deres udvikling.

  • 0
  • 0
Pelle Söderling

Men det betyder vel også at der ikke rigtig er nogen undskyldning for ikke at have smidt ihvertfald 12GB ram i. Prisen på RAM dengang er underordnet i den her sammenhæng - det er jo det offentlige og IT projekter koster min. et 3-cifret millionbeløb, ram uanset pris ville være peanuts i det budget.

  • 2
  • 0
Claus Nielsen

Tilbage i 2002 arbejdede jeg med taksering af teletrafik for en af de middelstore teleudbydere og vi genererede ca. 1 TB trafikdata om året fra primært mobilnettet når det var gemt i databasen. En eftermiddag stod der en frisk jysk revisor og bad mig lave en fulldump til DVD af databasen i CVF så han kunne lave en Excel model på hans laptop der kunne bekræfte at takseringen fungerede korrekt. Det uhyggelige var at han blev ved med at insistere på et dump efter jeg havde fremført at det ville fylde 200 DVD skiver og hans laptop havde ingen udsigt til at kunne tygge det igennem før drevet var slidt op.

Den konfiguration vi brugte til denne database var et highgrade SAN (for den tid) og en Digital Alpha server med 16 cores og 64 GB RAM.

Politiet forventede tilsyneladende at kunne tygge sig igennem hele Danmarks teletrafik (incl internet) med et par pizzabox servere og MS SQL?
Det er dårskab på linie med min jyske revisor.

Jeg gad vide om disse servere også var hostingplatformen for Polsag. Det kunne forklare deres performance problemer.

  • 4
  • 0
Claus Jacobsen

Jeg undskylder delvist overfor jonas. Det der var noget vås var brugen af Gen/G. Om det er G eller gen er underordnet. Det er stadig en forkortelse for generation.

Hvad angår det med datoerne - jeg undskylder helt her. - kunne sg heller ikke få det til at passe. det var datoerne for sidste rettelse i supportdokumenterne jeg så :-) (mente nok jeg havde solgt en del g5'ere før den tid. Det gør det desværre bare det mere amatøragtigt for de implierede i tilfældet.)

TIL CLAUS NIELSEN - polsag blev rent faktisk kørt på et gammelt setup. Men det blev oprindeligt købt ind til testkørsel af projektet, men der gik så lang tid før det kom i test at platformen var totalt utidssvarende (havde de vidst hvor mange iops der ville være brug for er jeg sikker på at projektet ville have set helt anderledes ud, hvis de havde konsulteret nogle folk med HW-viden så snart man havde fundet ud af det), og der var ikke blevet lavet nogen opgraderinger. - i hvert fald ikke af hvad man kunne læse ud af den redegørelse der kom frem.

Til gengæld mistænker jeg lidt det har været de samme mennesker der har haft en finger med i spillet. Ved ikke hvordan de har lavet indkøb der. Det kan godt være at it-afdelingen har sagt de bare skulle have "et par servere" til test og så har deres indkøbsafdeling (som jo intet ved om IT eller projektets krav) bare gjort det de fik besked på. Der kan også have siddet en skrankepave et eller andet sted som har blokeret for brug af midlerne som ikke har haft forståelse for hvad der skete. OG i sidste ende kan der have været en forhandler der overhovedet ikke har vidst hvad de lavede, og har lovet dem guld og grønne skove. En kombination af dem alle ville i hvert fald føre til total FAIL for projektet
Men faktum er jo da i hvert fald, at de både på SAN og på Serverfronten nu i mindst 2 offentligt kendte tilfælde har været ekstremt undersizet på HW-siden. Spm er selvfølgelig om der så er nogen der tør stå ved at det er dem der har sagt ok til det setup. - Tror måske den viden bliver taget med i graven.

  • 3
  • 0
Log ind eller Opret konto for at kommentere