Man har en tendens til at gerne ville lave big bang løsninger i stedet for at løse delopgaver og så få dem til at være gode og så siden optimere på det.
Jeg siger bare microservices kombineret med CI/CD, men det vil jo være alt for nemt, så hellere holde sig til den eksisterende tilgang som ikke virker...
Den behøves jo ikke at være gennemkommenteret fra dag 1.
Hvis koden ikke indeholder noget som er forbryder sig mod copyright, hvorfor så ikke bare få den lagt på github i en fart? Det tager ikke mange minutter at få den der ud.
Når den først er der ude, så kan de være der kommer mere efterspørgsel. Jeg vidste f.eks. slet ikke at modellerne var noget man kunne få fat i.
Interessant. Hvorfor ville du foretrække Typescript frem for C#?
Da jeg bruger TypeScript i sammenhæng med Angular, så jeg kan jeg debugge/rette koden imens resultatet er i browseren on the fly. Med en baggrund fra primært web, så er det for tung en oplevelse at skrive C# og skulle kompile og så se resultatet, frem for on the fly.
Det er blot min oplevelse og det kan være blevet meget bedre.
Jeg vil langt hellere kode i TypeScript end C#. Men det er jo en smagssag og hvilken baggrund man kommer med og hvilken opgave man skal løse.
Så handler det vel også langt hen af vejen om, hvad er der mest tilslutning til på nettet i forhold til fremtidsudsigter for den applikation man er i gang med at skrive.
På sin vis enig, men min erfaringen siger noget andet.
Når man et par gange har outsourcet opgaver til Indien og man oplever man skal beskrive selv simple opgaver i gasbeton for at budskabet kommer frem og det forventede produkt er bare nogenlunde i nærheden af det man bestilte, så bliver man hurtigt lidt træt.
Min oplevelse er helt bestemt at kulturforskellen simpelthen er for stor. De har masser af tid og for dem er det helt okay at bruge den allerede brugte tid igen på at lave noget helt om, fordi de har misforstået opgaven, til trods for den udførlige beskrivelse. Men man kan ikke bruge det til så meget, når tiden er en faktor.
Derfor er Indien ikke en option længere i min verden. De bliver bevist frasorteret, da der ganske simpelt er for langt imellem opgavebeskrivelsen og til at de forstår, hvad man vil. Man bruger ganske simpelt for megen tid på at beskrive opgaverne til dem og teste at det afleverede resultat er i orden, sammenlignet med at give opgaven til en her i landet eller andre kulturligende lande.
Oplevelsen er også at man bruger for meget tid på at svare på spørgsmål, som er op til opgaveløseren at finde et svar på og tage en fornuftig beslutning omkring, det er jo lidt konceptet i at hyre folk der siger de kan løse ens opgaver at de så også rent faktisk gør det og ikke skal indrage os i det hele tiden.
Hvad består det uprofessionelle i? ikke at være loyal over for producenten? Hvad er det specifikt at en given firmware i samme kaliber diske fra forskellige producenter gør at man skal holde sig til samme producent?
I min tid med drift af hardware(20+år) og det står helt for min egen regning har jeg endnu til gode at opleve noget negativt ved netop at blande producenterne i samme boks.
Forskellige batches produceret på forskellige tidspunkter mindsker ganske simpelt din risiko for fejl på hardwaren, big numbers game, ganske simpelt.
Men ville nu aldrig køre Raid 5 af netop den årsag at risikoen for et dødt system ved en død disk der tage en anden disk med i faldet under restore er alt for stor.
Det er ikke ZFS du kan ikke bare vælge de diske du gerne vil i et san
De SAN jeg har haft berøring med har der ikke været noget problem i at vælge samme størrelse/typer diske fra forskellige producenter i samme boks.
Kunne ikke være mere enig. Der findes efterhånden en del virksomheder som gør netop dette. Ja, det koster penge, men når man tænker på, hvad det koster de berørte borgere, så er det småting.
Er det bare mig der går med livrem og seler når det gælder sådan et setup?
Kørte systemet med samme batch af diske/producent?
Jeg ville aldrig bygge et sådan setup af diske fra samme batch. Måske samme producent, men med stor afstand imellem produktionsdatoerne, så man sikre at den fejl der evt. rammer en disk ikke også er til stede på de resterende diske.
Nu når det er noget så standard som 10k RPM SAS diske, så er det "nemt" at finde diske fra andre producenter at blande sit array med.
Men oplys mig gerne, hvis der i dag er andre grunde til at vælge samme batch diske/producent til noget så kritisk?
Læste du delen "Og tendensen er overraskende klar. Selv hvis man korrelerer for forskellige sprog, lande, uddannelsesniveauer og erfaringsniveauer er billedet det samme. Mellemrums-brugerne tjener 8,6 procent mere end tab'erne og dem, der blander de to praksisser." ?
Der er netop taget hensyn til lande og det kan derfor ikke tilskrives at det er filstørrelse alene.
Efter som bevisbyrden er vendt om efter GDPR er implementere, så får Datatilsynet det væsentligt nemmere, da KMD så skal bevise at de har overholdt GDPR.
Besparelsen kom helt konkret ud af at ændre vinklen på et serverrack.
Det er lige så brugbart som at skrive at en given virksomhed har opnået gode resultater ved at ændre på noget i deres drift. Godav mand økseskaft, det kan selv en idiot finde ud af. Men, hvad har de konkret ændret?
Er det en basal/fundemental ændring eller er det noget helt vildt de har gjort?
I den forbindelse, spurte man så ind til om det kunne lade sig gøre at få disse systemer til at køre på flere servere? Bør spørgsmålet ikke hellere være om det kan skalere horizontalt og vertikalt, frem for om det kan køre på et stort antal servere? Bør spørgsmålet ikke også være om det kan køre i redundant tilstand, på 3 nodes, så man undgår split-brain?
Spurte man de regioner der bruger systemerne allerede, hvad deres erfaringer er og hvad medarbejderne der rent faktisk bruger det i det daglige syntes om systemerne?
Den simple og sikre løsning på cyberattack er at gå tilbage til papir og optælling lige som man gør her i DK.
Det tager lidt længere tid, men INGEN har taget skade af at vente et par timer ekstra på at få resultaterne.
Det er nemt, det er sikkert og alle kan gennemskue reglerne og validere at valget bliver foretaget korrekt.
Tilbage i 2014 var der bla denne test https://major.io/2014/06/22/performance-benchmarks-kvm-vs-xen/ og lavede selv ligende tests of fandt noget tilsvarende og der snakker vi omkring 2.5% tab, så der er ikke meget at hente ved at køre råt jern, frem for virtuelt.
Hvis man er ude i at skulle have brug for at hente 2.5% på hardware, så er ens app skrevet forkert, når formålet er at skalere til hele verdenen.
Alle de andre ting er evindeligt ligegyldige, så længe jeg som borger ikke kan vælge at få vidersendt indkommende "breve" i eBoks til en selvvalgt e-mail.
Skriv en masse disclaimers om at det potentielt kan misbruges, hvis folk opsnapper den e-mail. Giv mig den mulighed alligevel, det er mega simpelt at implementere. Så få det nu gjort.
Det vil stadig være formålstjeneligt at jeg som borger kan vælge at få vidersendt alt min post der havner i e-boks til en egen valgt e-mail adresse og kvittere for at jeg har forstået at en mulig person kan opsnappe personlige data.
Lad borgeren tage et aktivt valg. Lad gerne default være at det ikke vidersendes. Så kan man udvide med krypteret e-mail bag efter.
Hvorfor er det man vælger at blive ved med at bruge Oracle DB ud over at man har nogle eksisterende systemer der bruger det?
Er den regning man får fra Oracle ikke stor nok til at det giver mening at skifte til noget andet?
Hvorfor er det lige at jeg som borger ikke kan indstille i e-boks at beskeder blot skal sendes videre som e-mail?
Det er fair nok at standard er at det ikke sker. Men hvorfor er det at jeg ikke må få det valg selv?
Det kunne være at servicen var mere brugbar, hvis man fik den muligheden...
Det lugter langt væk af manglende testcases, hvor man ikke har sikret sig at ind og ud data matcher og giver forventede resultater. TTD er vist ikke blevet brugt her, eller blevet brugt meget underligt.
Kan man ikke grave i det version2?
- Forrige side
- Nuværende side
- Side
- Side
- Side
- Side
- …
- 19
- Næste side
Rene Madsen