bloghoved kristian hjort-madsen

Er agil udvikling ikke nok? Så prøv total udryddelse

Det gør ondt at udrydde kendte og velafprøvede infrastrukturer. Men store infrastrukturskift er et spørgsmål om overlevelse. Infrastrukturen skal følge med på kolossale forandringer i forretningsmodeller drevet af teknologiske trends som cloud, microservices, serverless computing, big data, etc.

De fleste udviklingsorganisationer arbejder efterhånden mere eller mindre agilt. Vi stræber efter, at små teams hurtigt leverer afgrænsede, men brugbare delfunktioner.

Allerhelst delfunktioner, som vores kunder (hos mig er det banker) med det samme kan bruge i deres daglige forretning, så vi løbende kan opsamle deres erfaringer og justere de næste leverancer derefter. Derved løber vi mindre risici for at køre af sporet, og vi leverer hurtigere mærkbar værdi til vores kunder.

Det er ren darwinisme – vi vil helst teste mange små, evolutionære forandringer ude i den virkelige verden, så vi hurtigt kan aflive de svage ideer og bygge videre på de stærke.

Men, en af mine kæpheste er, at iterativ evolution ikke altid er nok. Hvis vi konstant fokuserer på at adressere de mest presserende problemer, så risikerer vi at miste det mere holistiske overblik.

Det nytter ikke noget skridt-for-skridt at udvikle verdens stærkeste dinosaur, hvis grundstammen er forkert, og fremtiden tilhører menneskeaberne. Nogle gange er der brug for et massivt meteornedslag for at udrydde det bestående og skabe radikal forandring.

Hvem vil være en dinosaur?

Nu er det jo ikke sjovt at blive ramt af en meteor. Og det er heller ikke været hverken billigt eller nemt at knokle igennem store infrastrukturprojekter, som vi eksempelvis netop har gjort her i Roskilde.

Ingen tvivl om, at det for mig som teknologidirektør på kort sigt havde givet færre grå hår, hvis vi på vores business intelligence-infrastruktur var fortsat med at udvikle på traditionel x86-serverinfrastruktur nogle år endnu.

Men hvis ikke vi selv forstår at forandre os hurtigt nok, så ender vi selv som dinosaurerne. Det er simpelthen et spørgsmål om overlevelse for os og vores kunder.

Vi skal stille den nyeste teknologi og stærkeste analysekraft til rådighed for vores kunder midt i en fintech-revolution, hvor nye samarbejdspartnere og konkurrenter er lynhurtige til at udnytte nye teknologier til at disrupte klassiske forretningsmodeller.

Mange af de nye spillere i vores sektor har endda den fordel, at de enten ikke selv arbejder direkte med fortrolige persondata, eller i hvert fald ikke behøver at bekymre sig helt så meget om den sikkerhed, stabilitet og compliance, som er altafgørende, når man som os driver store dele af Danmarks finansielle centralnervesystem.

Vores meteor var big data

Her i Roskilde har big data været en change driver for ny infrastruktur til pengeinstitutternes business intelligence-platform.

  • Vi håndterer 22 procent af den danske befolknings hovedbankforbindelser målt på NemKonti.
  • Vores data warehouse omfatter 60.000 rådataentiteter med 35 TB data, som hvert år vokser med 30 procent.
  • Vi afvikler +60.000 daglige ETL-kørsler, som påvirker én milliard dataposter.
  • Og på rapporteringssiden kører vores kunder over 1.000 daglige rapporter, og vi rater 1,5 million bankkunder i 23 pengeinstitutter, der benytter 18 forskellige prædiktive modeller.

Derfor ville vi ikke nøjes med at opdatere og udbygge den eksisterende platform. Vi ville give vores kunder nogle helt nye muligheder for at indsamle, analysere og kommercialisere de enorme mængder af data, som glider gennem det moderne, digitale pengeinstitut.

Vores løsning blev en stor investering i et helt nyt data warehouse, som er bygget fra bunden specifikt til business intelligence: I daglig tale ”Netezza” (fra IBM).

Netezza er både dedikeret hardware optimeret til analyse af meget store datamængder og en databaseserver med MPP-arkitektur (massively parallel processing). Server, storage og database er én tæt integreret enhed.

I modsætning til vores gamle SQL-server kan Netezza-platformen skalere lineært og har en markant bedre performance på meget store tabeller. Derfor har vi kunnet konsolidere et stort antal databaser, hvilket igen har reduceret antallet af dataintegrationer og ETL-jobs voldsomt (og med udsigt til endnu større gevinster, efterhånden som vi blandt andet får omlagt integrationslogikken).

Platformens datakapacitet er de facto virtuelt styret, idet al hardware er installeret i én fuldt konfigureret boks. Derfor kan vi efter behov øge datakapaciteten uden ny hardware og med virkelig kort reaktionstid.

Den tilgængelige kapacitet koblet med den høje performance giver også mulighed for en mere automatiseret oprettelse af testmiljøer, så vi fremover på få minutter vil kunne oprette testmiljøer, som tidligere tog dage eller uger at levere.

Fra 24 minutter til 4 sekunder

Det er kun få dage siden, at vores kunder gik i drift vores på vores nye infrastrukturplatform, men vi har øjeblikkeligt set en voldsom forbedring. En af vores kunders daglige kørsler, som tog næsten 24 minutter på den gamle SQL-server, afvikler vi nu på 4 sekunder – det er 350 gange hurtigere end før.

Det giver selvfølgelig en langt mere effektiv hverdag hos vores kunder. Men det er næsten det mindste. Denne ekstremt bedre performance leder til helt nye måder at udforske data på, meget mere komplekse analyser af langt større datamængder og helt nye indsigter i pengeinstitutternes kunder og forretningsmodeller.

I finanssektoren har business intelligence typisk været brugt inden for økonomi, risikostyring og compliance. Men mulighederne er enorme. Og vi har næppe erkendt de fulde muligheder endnu, for de vil først vise sig gennem en mere eksplorativ – undersøgende – tilgang til business intelligence.

Dvs. at vores kunder lynhurtigt kan teste mange flere ideer og hypoteser, fordi søgninger i data nu tager få sekunder frem for hele eller halve timer.

Evolutionen fortsætter – men tør vi tage dinosaurerne ved hornene?

Og dermed er vi selvfølgelig også tilbage i den agile evolution. Efter vores store infrastrukturinvestering – efter meteornedslaget – står vi nu i en verden med nye muligheder for evolution, som vi vil i høj grad vil forfølge med agile metoder. Vi eksperimenterer med nye muligheder for at importere og analysere på data fra tredjeparter.

Og vi eksperimenterer med at stille data til rådighed for eksterne samarbejdspartnere – det være sig nye fintechs eller andre af vores kunders partnere eller leverandører.

Hvordan ser det ud i din organisation? Udvikler I jer hurtigt nok gennem evolution og inkrementelle metoder? Hvordan hæver I blikket fra de løbende forbedringer til også at se jeres kunders langsigtede, strategiske behov? Og tager vi dinosaurerne nok ved hornene og gentænker vores grundlæggende infrastruktur, selv om det kan gøre ondt?

Relateret indhold

Kommentarer (1)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Jari Wiklund

Hos os har vi en ambition om at infrastrukturen også bør være agil.
At lave årti-lige meteornedslag i infrastrukturen, svarer vel bare til at man har haft et infrastruktursprint på et årti ;-)
Vi prøver at tage livtag med DevOps tankegangen og lade den være løftestang for at ikke låse os for fast på en type infrastruktur.
I jeres tilfælde lyder det også lidt som at man har været nød til at købe hele pakken, både software og hardware som en monolitisk BI løsning og det kan sikkert også betale sig ift den øgede performance man får ud af det, sådan lyder det i hvert fald.
Jeg ville så nok vælge at ikke integrere for hårdt ind i den løsning, men lade det være en service, forhåbentlig med et fornuftigt API og så kunne man jo kalde det en BI microservice. Således at resten af forretningen/softwaren, ikke om føje år igen sidder låst fast i den fra 2016 fastlåste teknologi.

  • 1
  • 0
Log ind eller Opret konto for at kommentere