Kombit dropper opkrævning for BI-system: Datakvaliteten er for dårlig

Illustration: REDPIXEL.PL/Bigstock
Det fælleskommunale ledelsesinformationssystem FLIS har så ringe datakvalitet, at kommunerne slipper for at betale 2013-regningen.

KOMBIT vil ikke opkræve kommunerne betaling for deres brug af FLIS-systemet i 2013. Det fremgår af virksomhedens hjemmeside.

FLIS - det fælleskommunale ledelsesinformationssystem - giver kommunerne adgang til at overskue en række nøgledata på forskellige områder og sammenligne med tilsvarende fra andre kommuner. Men kvaliteten af data har lige siden systemets fødsel i slutningen af 2012 været så ringe, at KOMBIT ikke føler, at de kan tage penge for det.

Læs også: Kommuner sender BI-systemet FLIS i luften - men mangler data

»KOMBIT og styregruppen for FLIS har besluttet, at kommunerne ikke vil blive opkrævet betaling for 2013 grundet en manglende tilstrækkelig datakvalitet i årets første tre kvartaler,« står der på KOMBITS hjemmeside.

Det er meningen at ældreområdet skal tilføjes til FLIS-databasen inden årsskiftet, ligesom man planlægger at inkludere området for udsatte børn og unge. Kombit skriver også på virksomhedens hjemmeside, at de arbejder på en betalingsmodel for 2014, der er i drift og har data af en tilfredsstillende kvalitet til rådighed.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Kommentarer (7)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
s_ mejlhede

Men en indrømmelse fra leverandøren som man ikke ser ret tit.

Det vi har leveret til nu, er noget lort, men i skal ikke betale før det virker.

Det viser da leverandørens ansvarlighed/ærlighed over for kunden.

Det plejer jo at være, betalt nu, så kan det være vi kan når at levere noget lort som ikke virker.
Vi tager ingen ansvar for det, men beholder pengen, også de extra som vi fik da vi ikke kunne over holde de 2 første tidsfrister.

  • 1
  • 0
Flemming Nielsen

Josef, jeg tror faktisk ikke det er FLIS systemet som sådan, der er grundproblemet.

Mit bud vil derimod være, at det handler om vidt forskellige datamodeller for koncernstrukturelle stamdata (der ikke er mappet retvisende ift. hinanden på tværs af platforme og systemer) i de temmeligt mange forskellige fagsystemer, hvorfra transaktionsdataene stammer.

Hvis ikke de mange forskellige fagsystemer bygger på en nogenlunde homogen datamodellering for de stamdata, der rent styringsmæssigt beskriver "koncernen" internt, og påhæfter stamdata referencer når transaktionsdata fødes i fagsystemerne, så får ETL rutinerne før load af data ind i et BI/DW miljø også en rimelig høj fejlrate.

Og kommunernes systemlandskab består vist nok af RIGTIG mange forskellige platforme, der hver især bygger på forskellige datamodeller.

Der skal et grundlæggende informationsarkitektur arbejde til, men det er ikke nemt at bruge dette aktivt som selektionskriterie i udbudsforretninger, når man samtidig er tvunget til (via den forholdsvis "krakilske" danske fortolkning af EU udbudsdirektivet) at vælge den komparativt billigste løsning, hver gang der indkøbes et nyt fagsystem.

Det er ikke en nem nød at knække ;-)

  • 4
  • 0
Claus Jacobsen

du har fuldkommen ret Flemming - Med så ufattelig mange forskellige systemer er kommunerne faktisk nødt til at lave en dybdegående arkitektur for overhovedet at kunne lave noget BI der giver mening (det er tanken der giver IT kraft - ikke IT der giver tanken kraft, så I'et fra BI står for hjernens intelligens og ikke en fiktiv intelligens i et program). Og det er desværre ikke rigtigt noget man kan udlicitere til et softwarefirma - det er man altså nødt til at have styr på selv. Men det betyder desværre også at kommunerne skal have enterprisearkitekter gående - synes ikke rigtigt jeg har set så mange opslag på den slags rundt omkring :-)

  • 1
  • 0
Pelle Söderling

Jeg arbejder selv med at opbygge BI løsninger til dagligt og jeg er helt på linje med Flemming.

Den største grund til at den her slags fejler er elendig data kvalitet i source systemerne, samt et væld af systemer der alle lagrer data på hver sin måde og hver har sine spidsfindigheder, bugs og historiske årsager til at data nu engang er endt som de er (f.eks. at man har skiftet ERP system 3 gange og data er blevet kopieret på kryds og tværs i den forbindelse uden nogen har tjekket data kvaliteten ordentligt før BI teamet kommer til..) - det er på ingen måde let at bringe alt dette sammen til noget der giver et retvisende billede af en virksomhed eller organisation.

Som et eksempel kan jeg f.eks. nævne at jeg har oplevet at historiske data fra et tidl. ERP system er blevet importeret hvor kolonner er blevet shiftet med 1 hvilket er gået godt da datatyperne har kunnet håndteres af databasen - så UserID var endt i et timestamp felt osv. - good luck with that :-)

Nåh ja og det er heller ikke ualmindeligt at opleve at ens WMS opererer stock på Shipping Fees eller Discount produkter .. man oplever mange "sjove" ting når man graver i operationelle systemer.

2 udaf 3 BI projekter fejler og det er der rigtig mange årsager til. For det første er det komplekst at designe data warehouse løsninger der rent faktisk virker efter hensigten og det er komplekst at bygge løsninger ovenpå der rent faktisk tillader at analysere dataene efter behov. Men den største udfordring ligger oftest i at source dataene fra de operationelle systemer er af elendig kvalitet og at folk generelt har en tendens til at lukke øjnene for dette og bare sikre at problemer løses fremadrettet.

Dermed overlades alle disse problemer til BI afdelingen når forretningen beslutter sig til at det kunne være cool at kunne træffe beslutninger baseret på data istedetfor mavefornemmelser og dermed ønsker at skaffe indsigt i alle disse historiske data der åbner op for pandoras æske.

  • 1
  • 0
Log ind eller Opret konto for at kommentere