Business intelligence-analytiker: En myte, at man bare kan give brugerne adgang til datakilderne, og så kører det

Både dataintegration og brugervenlighed er en udfordring i den nye tendens med selvbetjening inden for BI.

At rykke business intelligence ud af it-afdelingen for at give langt flere ansatte direkte adgang til egne data, er en af tidens mantraer.

»Advanced analytics is no longer just for analysts,« lyder det bl.a. i punchlines.

Selvbetjening inden for business analytics-anvendelse er uden tvivl for mange en rigtig god idé, fordi man giver de ansatte mulighed for at hente viden fra virksomhedens datakilder uden først at skulle involvere eksperter i datamining.

Men der er også røster, der advarer om, at det er nemmere sagt end gjort.

»Der er en stor myte inden for selvbetjenings-business intelligence, at du bare kan åbne for adgangen til en stor database, og herefter kan brugerne få noget fornuftigt ud af det,« siger Philip Russom, industrianalytiker hos BI-analyseinstituttet TDWI ifølge udgivelsen GCN.

»Det kræver faktisk en masse forberedelse, inden det fungerer. Og det er uanset, hvilken form for selvbetjening man går efter. It-folk, datafolk eller andre teknikere er nødt til at gennemføre et stort arbejde med at forberede data og gøre dem tilgængelige,« siger han.

Konkret handler det om at stille data til rådighed via en brugergrænseflade, som er egnet til BI-selvbetjening. Og det kan koste mange arbejdstimer.

At downloade et front-end-værktøj, som giver indsigt i forretningens data, f.eks. Tableau, installere det på skrivebordet og gå ud og fange data fra SAP eller PeopleSoft-systemerne, kan være nemt nok, lyder det fra TDWI.

Derimod kan dataintegrationen eller den direkte adgang til kildesystemerne ofte give store udfordringer, fordi det er meget komplekst, mener TDWI.

Problemet kendes også herhjemmefra. Til Version2 har Hans Jacob Nejsum Clausen, der er Senior Business Intelligence Analyst hos Dong Energys B2C-afdeling, fortalt om et selvbetjeningsprojekt, at man har opnået at fjerne tidligere ventetid på til tre-fire måneder, når f.eks. et kundecenter tidligere ønskede data fra telefonsystemet, fordi det krævede en request til it-afdelingen.

It-folkene skulle herefter dykke ned i kildesystemet for at finde tallene, som udviklere efterfølgende måtte sætte ind i et SAP-datawarehouse.

Læs også: Dong Energi B2C hiver BI ud af it-afdelingens hænder: »Det har krævet nogle kampe«

Men det har også medført kampe, at de nye brugere har haft ønsker om andre måder at vise data på end de traditionelle - men også det med at give brugerne direkte adgang til kildesystemerne har krævet nogle kampe.

Nye værktøj hjælpe selvbetjeningen på vej

Selv hvis det lykkes at sikre selve den tekniske adgang til data, så kræver det stadig langt mere, hvis de nye brugere skal have noget fornuftigt ud af dem.

Der er dog nyere værktøjer, som smidiggør processen - GCN nævner Alteryx, Paxata, Trifacta, som står i modsætning til tungere værktøjer som QlikTech eller Tableau; sidstnævnte har Dongs B2C-afdeling valgt som et alternativ til SAP og SAS Institutes egne værktøjer.

Udfordringen for leverandørerne er at tilpasse de funktioner, som traditionelt er designet til et erfarent BI-slutbruger-segment til den nye selvbetjeningstendens. Og det samtidig med, at klassiske dyder som genbrug, repeterbarhed og administration ikke går fløjten.

Et andet problem er ifølge artiklen, at selvbetjeningsværktøjer typisk er designet til at kigge på data eller vise dem i en anden form - ikke til at forvalte dem. Med andre ord findes der i de nye enduser-moduler ikke værktøjer til at forvalte data nærmere.

Det betyder, at brugerne må acceptere metadata-definitioner - eller selv skabe det, hvis de ønsker en mere enkel visning af forretningsoplysninger.

Udviklingen er dog i gang, og bl.a. har IBM, Microsoft, MicroStrategy, Oracle, SAP, og SAS Institute selvbetjeningsværktøjer, der supplerer og integrerer med deres BI-enterprise-tilbud.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk

Følg forløbet

Kommentarer (12)

Peter Hansen

opnået at fjerne tidligere ventetid på til tre-fire måneder, når f.eks. et kundecenter tidligere ønskede data fra telefonsystemet, fordi det krævede en request til it-afdelingen. It-folkene skulle herefter dykke ned i kildesystemet for at finde tallene, som udviklere efterfølgende måtte sætte ind i et SAP datawarehouse.

Men det har også medført kampe, at de nye brugere har kommet med ønsker om andre måder at vise data på end de traditionelle

Hvor lang tid tager det lige at skrue en SQL-forespørgsel sammen, og hvorfor fører det til "kampe"?

Kim Pedersen

Det er nok primært den del du har udeladt der giver kampene - " men også det med at give brugerne direkte adgang til kildesystemerne har krævet nogle kampe."

Den hurtigste måde at køre et ERP system i knæ på, er at give almindelige brugere adgang til at fyre custom queries af i vildskab. Typisk derfor man smider det over i et datawarehouse til formålet.

Kim Pedersen

3-4 måneder lyder langt overdrevet, men det er ikke nødvendigvis noget man gør på et par timer. Der er typisk flere udfordringer involveret, det første er at brugerne ofte ønsker nær-realtime data, så du vil stadig ligge et load på driftsystemet hvis du kontinuerligt vil hive data ud. Det vil sige dine queries skal optimeres, indexes oprettes osv, for at have mindst muligt impact. Det nemmeste vil være at man bare tager en fuld kopi hver nat, men det er brugerne ofte ikke tilfredse med.

Men hvis man bevæger sig op i databaser der fylder flere terabyte, så er det heller ikke nødvendigvis nemt, eller hensigtsmæssigt blot at lave en fuld kopi, da det hurtigt kan blive ret dyrt i hardware, da der typisk også er andre opgaver der skal udføres om natten(backup, batchjobs, etc), så det skal gå stærkt, det er ikke sikkert at du kan få meget mere end et vindue på en times tid, hvis du har tænkt dig at stresse disksystemet maximalt. Så selv med en natlig kopi, fremfor near realtime data, kan man stadig komme ud i situationer hvor man bliver nødt til at finde ud af præcis hvilke data man ønsker at suge ud, da du måske ikke kan nå at få det hele.

Jørn Thyssen

(disclaimer: jeg arbejder for IBM)

3-4mdrs leveringstid på en ny rapport er efter min mening ikke unormalt hos større virksomheder. Hvis alt data ikke er til rådighed i BI systemet og det kræver nye ETL jobs, aftestning af disse, driftsopsætning med mere, så går der hurtigt lang tid.

Der findes systemer på markedet som er integreret ind i databasen, hvor data (mere eller mindre) transparent stilles til rådighed for BI forespørgsler direkte i kildesystemet, uden at det belastes markant. Der kræves f.eks. ikke ekstra indekser til at understøtte BI forespørgslerne og der er heller ikke låsninger i databasesystemet, som kan påvirke transaktioner eller batchkørsler. Derudover er data tættere på real-tid end det er tilfældet for typiske BI systemer, hvor data ofte er 12-36 timer gammelt.

Det er selvfølgelig heller ikke problemfri at slippe en typisk forretningsbruger løs direkte på kildesystemet, da datamodellen typisk er anderledes end BI systemerne og kvaliteten af data kan være tvivlsom. Men det er prisen for at undgå at vente 3-4 mdr på en ny rapport eller 36 timer på data.

Edit: grammatik

Denny Christensen

Man kunne lave DW delen således at moder systemerne afsender hændelsesbeskeder med de data der skal være i DW, disse data kan i XML format udvides når der sker ændringer og så kan DW indrette sig efterhånden.

Lyder nemt, ikke sandt?

Det er bare et mega arbejde at sætte det hele op, teknik, arkitektur, litteratur, det hele er der, men det skal stadig 'lige' sættes sammen og det tager lang tid.

ETL og andre traditionelle metodikker er så indarbejdet at alle ved hvad de skal gøre, det er bare ikke særligt fleksibelt ift. hændelses orienteret arkitektur.

Jørgen Richter

Det centrale ved BI er faktisk ikke adgangene, men at forstå, hvad data dækker over - hvordan data fortolkes. Der er ikke mange databaser, der har data præsenteret i kolonner, som kan dække alle type af forespørgsler, og hvor kolonneindholdet er enten tal, dato eller JA/NEJ (nemt at fortolke).
Derfor giver det ikke så meget mening af lave systemer som Tableau mv og give det frit for slutbrugere og deres, mellemledere mv.
Adgange til data er heller ikke trivielt, da der i lidt større virksomheder er governance for hvem, der må se hvilke data. Afvigelser herfra vil kræve dispensation/ny autorisation og det kan være lidt tungt, hvis der skal laves ad-hoc-rapportering.

Mikael Kristensen

Qlik har både QlikView og Qlik Sense, hvor Sense især i starten blev markedsført som marked for "Self service", mens QlikView er "Guided".

Jeg siger ikke at det holder, jeg oplyser bare.

Peter Orum

Jeg er selvfoelgelig farvet en del af at vaere Product Manager hos TARGIT, men vores indgang til Self Service BI er lidt anderledes end mange af vores konkurrenter. Vores loesning er stadigt baseret paa at brugerne selv kan tilfoeje datakilder - men data kilderne kan ogsaa deles mellem brugere. Det giver en masse fleksibilitet da IT afdelingen lynhurtigt kan bygge en adhoc SQL forspoergsel som brugerne saa kan benytte som byggeklods sammen med deres egne data i f.eks. Excel eller simpelthen bare traekke dataene fra en anden analyse i deres loesning, dertil kan de saa tilfoeje en af de andre datakilder som vi understoetter (+30 forskellige i vores Data Discovery-model).

Her er en lille stump video om hvor let det faktisk er! https://www.targit.com/en/video/modules2015/data_discovery_2015

Claus Hillerup Emborg

Naturligvis er Self Service BI forbundet med problemer... Der er jo nok flere der har arbejdet med Google Analytics end BI, og problemerne med at få valide data gennem Google Analytics afspejler de problemer som der er forbundet med Self Service BI. Overskrifterne herpå er vel at der udover en kritisk gennemgang af - og organisering af data, er behov for kompetenceopbygning på brugersiden... Men den organisatoriske forankring er også vigtig hvis du skal opnå succes med dit BI-projekt, og dette er vanskeligt opnåeligt med et Self Service BI system.

Det danske BI-hus Infosuite (http://www.infosuite.dk) har skrevet en glimrende artikel om Organisatorisk implementering, som jeg vedhæfter her: http://infosuite.us2.list-manage.com/track/click?u=1c0ac144e17af47a98404...

Log ind eller opret en konto for at skrive kommentarer

Pressemeddelelser

Big Data Lake Summit: Fast and Trusted Insights

If you want to outpace, outsmart and outperform your competition in a digital world, you need trusted data that can be turned into actionable business insights at speed.
24. apr 15:06

Welcome to Free course to learn about the combined power of Alteryx and Qlik!

Affecto invites to a free course, where we want to share our knowledge of this self-service analysis platform together with the power of Qlik.
20. apr 2017

Robotics Process Automation (RPA) changes the way organizations think about and perform work at a reduced cost, higher efficiency and greater productivity

Join us for this exiting seminar, which Affecto hosts with our business partner SmartRPA May 3rd, 2017 at 13.00 in Copenhagen.
30. mar 2017