yoel caspersen blog bloghoved

XGS-PON - en tresporet motorvej i din forhave

Jeg har en tilståelse - for en gangs skyld pønser jeg på at sælge dig et produkt, du ikke har brug for.

"Det gør du allerede", siger du, og peger insisterende på fiberboksen, der leverer 1000 Mbit/s til din router og bringer dig direkte ud på internettets motorvej - især, hvis du bor i Tåstrup og omegn. "Ingen almindelige mennesker har brug for 1000 Mbit/s, og i øvrigt kan mit WiFi slet ikke trække den hastighed."

Og her må jeg give dig ret. Som internetudbyder budgetterer vi med, at du i gennemsnit max bruger ca. 5 Mbit/s ved peak, og den gennemsnitlige streaming-session er da heller ikke meget større end det.

Når vi alligevel sælger 1000 Mbit/s, er det fordi, det giver rigtig god mening, at båndbredden ud af huset ikke skal være et issue fremover. Det svarer stort set til, at hele internettet bliver en udvidelse af dit LAN - med latency som den eneste forskel.

Men nu er TDC Net på trapperne med XGS-PON, der rulles ud til ca. 27.000 kunder i København, Odense, Århus og Aalborg, og vi får derfor mulighed for at tilbyde et 2,5 Gbit/s-produkt til vores kunder.

Det svarer i princippet til, at din i forvejen brede indkørsel bliver udvidet til en tresporet motorvejstilkørsel.

Væk med hækken, du aldrig fik klippet før Skt. Hans alligevel, væk med konens staudebed og de mange kedelige planter, du ikke kender navnet på, og på med en ordentlig gang asfalt, så du kan komme hurtigt ud af klappen om morgenen.

Og det er her, dilemmaet opstår, for hvornår har private brug for den slags internetadgang?

Stort set al netværksudstyr, der sælges til private, har 1000 Mbit/s-porte, hvilket sætter en øvre grænse på ca. 940 Mbit/s anvendeligt throughput pr. device under ideelle forhold.

Du kommer derfor ikke i nærheden af at kunne udnytte 2,5 Gbit/s på en normal PC, især ikke på WiFi, og den oplagte use case er derfor parallellisering - fx ville 2,5 Gbit/s give rigtig god mening for en skole med mange elever, som hver især går på WiFi (spredt ud over flere access points), eller et kollegie, hvor flere brugere deles om den samme internetforbindelse.

Men i et privat hjem?

TDC forventer, at markedsprisen bliver mellem 500 og 600 kr. pr. måned, hvilket nok må siges at være den absolutte, øvre grænse for privatkunders smertetærskel, når det kommer til internet.

En sådan pris vil dog gøre det kommercielt uattraktivt at levere til de brugere, der reelt har et behov for 2,5 Gbit/s, og det efterlader os med en enkelt målgruppe: Dem, der vil have det, bare fordi, de kan.

Hvad siger læserne - er der kunder til et 2,5 Gbit/s internetprodukt til 500 - 600 kr. om måneden, og hvad er use casen?

Relateret indhold

Kommentarer (98)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
#3 Poul-Henning Kamp Blogger

Hvis man i praksis kan få 2.5Gbit i burst rate, i den retning man skal bruge det, når man skal bruge det, vil der være købere.

F.eks professionelle fotografer der skal uploade færdige billeder og video. De vil ikke være blege for at købe en router der kan det, hvis de da ikke ligefrem klasker deres Mac direkte i fiber-boxen.

Hvor stort det marked så er må guderne vide...

  • 14
  • 0
#4 Yoel Caspersen Blogger

Hvis man i praksis kan få 2.5Gbit i burst rate, i den retning man skal bruge det, når man skal bruge det, vil der være købere.

Ja, fotografer og andre med stort burst-behov kunne godt være en use case.

Fiberen leveres på en enkelt 2,5 Gbit/s kobberport (Genexis Twist). Jeg forestiller mig derfor, at man som bruger skal have en router, hvor der som minimum er 1 stk. 2,5 Gbit/s-port på WAN-siden og en eller flere LAN-porte på 10 Gbit/s - og nok også nogle 1 Gbit/s-porte til legacy-udstyr.

Selv om udvalget af consumer-hardware med den slags specs ikke er voldsomt stort, må det være et problem, der kan løses.

Jeg forudser dog nogle udfordringer med forventningsafstemning for de kunder, som køber produktet. En ting er, at access-forbindelsen er på 2,5 Gbit/s, men bandwidth delay product er allerede en udfordring på 1000 Mbit/s i dag. Det bliver nok vigtigt at gøre det klart, at de 2,5 Gbit/s må forventes opnået ved anvendelse af flere samtidige TCP-forbindelser, og primært til servere, der ikke står alt for langt væk (målt i latency).

  • 10
  • 0
#6 Klaes Sørensen

Ønsker virkelig bare at netejerne griber deres egne løg, og står ved at GPON ikke er løsningen til hurtigt internet men, til en Fiberløsning ligeså ringe som ADSL med en asynkron faktor på 20.

Er virkelig træt af SE/Norlys og deres GPON.

Er i kommet videre i jagten på bedre vilkår for jer og jeres kunder ? (er kunde ved BoligNet som kæmper de samme kampe som jer, alle dem som er på OpenNet platformen og GPON.

  • 4
  • 0
#8 Per Dalgas Jakobsen

Ja, fotografer og andre med stort burst-behov kunne godt være en use case.

Ja, i 2010 kunne det have været rart at have haft her[1]. Selvom man godt kan få 6GB ind på et døgn på 2.5Mbit/s, valgte vi alligevel en variant af Tanenbaums "Never underestimate a ...".

Umiddelbart var der nok bedre salg i et produkt med decimeret latency ;-)

Lige nu har jeg selv svært ved at se hvad jeg skulle bruge 2.5Gbit/s til, men på den anden side sagde nogen engang: "There is no reason anyone would want a computer in their home." - Det er nok mest et spørgsmål om hvor lang tid der går, før 2.5Gbit/s er standard...

[1] hører stedet under Nordenergi, TDC, eller? ;-)

  • 0
  • 2
#9 Martin Hansen

Godt indlæg! Imponerende teknologisk udvikling, det er jo helt surrealistiske hastigheder i.f.t. for 20 år siden. Havde næppe troet det hvis nogen havde fortalt mig om det dengang. Trækker derfor også lidt på "smilebåndet" over smertegrænsen på de 5-600 kr. om måneden, med tanke på hvad jeg selv har brugt på internetadgang i midt-til-slut 90'erne, som både involverede abonnementer (til sikkert samme præcis) og minutafgifter (og pengene var unægtelig mere værd dengang iøvrigt). Tilgengæld fik man så fornøjelsen af hele 28.8 kbps stigende til (måske ) 56.6 kbps, altså 5 størrelsesordener mindre end nævnte produkt. Nå ja, og det hele forudsatte naturligvis man i forvejen havde tegnet telefonabonnement. Så alene abonnementerne var nok mere end 600 kr. om måneden. Jeg regnede lidt på det: Jeg vil tro at den omtalte internetforbindelse på kun 10 min. kan downloade alt (formentlig mere) jeg brugte 4-5 år på at downloade med de nævnte modemhastigheder!

  • 3
  • 0
#11 Michael Cederberg

Fiberen leveres på en enkelt 2,5 Gbit/s kobberport (Genexis Twist). Jeg forestiller mig derfor, at man som bruger skal have en router, hvor der som minimum er 1 stk. 2,5 Gbit/s-port på WAN-siden og en eller flere LAN-porte på 10 Gbit/s - og nok også nogle 1 Gbit/s-porte til legacy-udstyr.

Jeg har opgraderet mit hjemme netværk til 2.5/10 Gbit/s på nogle ganske få stræk. Det fungerer fint til store datamængder men jeg kan se at det er under 2 minuter om dagen hvor jeg ryger over 1Gbit/s. Det er også stjernedyrt. Alting koster 5 gange så meget. Det ser ud til at prisen på 2.5GBase-T kommer ned i løbet af i år men 10GBase-T vil stadigvæk være for dyrt.

Lige nu har jeg en 1000/60GBit/s coax forbindelse (jeg er klar over at XGS-PON er fiber only). Jeg kunne godt ønske mig at upstream hastigheden blev forøget og vil gerne betale for dette men downstream er jeg ikke villig til at smide mange kroner til hastighedsforøgelse. Som tingene er nu har jeg ganske enkelt svært ved at se behovet for en kæmpe hastighedsforøgelse - der er ikke umiddelbart noget på radaren der vil hæve behovet. Jeg kunne selvfølgeligt smide min NAS i skyen men som det ser ud nu bliver det rigtigt dyrt.

Wifi er selvfølgeligt det største problem. Jeg kommer sjældent over 300Mbit/s i rigtig brug. Så snart der er en væg eller en bog imellem AP og computeren så er vi langt fra de teoretiske maksima på wifi (jeg kører 802.11ac ... har ikke testet 802.11ax). Der skal være tale om en ret stor familie før det samlede peak forbrug ryger over 1Gbit/s hvis alle er på wifi.

Man kunne selvfølgeligt forestille sig at langt flere devices kom på nettet og blev afhængige af datakraft i skyen for at fungere sådan at behovet for kommunikation blev markant forøget. På den måde kunne hardware krav til AI i lokale devices reduceres.

Alas, vi mangler en diskussion i samfundet om hvorvidt det er ønskeværdigt hvis mange ting kun kan fungere med internet adgang. Lige nu ærgrer jeg mig stadigvæk over at jeg kun kan ændre temperaturen på varmen til gulvvarmen i badeværelset når min internetforbindelse fungerer. Det gør den heldigvis stort set altid.

  • 3
  • 0
#12 Yoel Caspersen Blogger

Yoel: Har I observeret en højere crest-factor i forbindelse med at folk arbejder hjemmefra ?

Det skulle man tro, men det er faktisk lige modsat - og det skyldes alene, at forbruget i dagtimerne er steget, mens forbruget ved peak er ca. det samme som normalt (normalt som i normal coronatid, hvor alle er hjemme om aftenen).

Merforbruget i dagtimerne kan for en stor dels vedkommende attribueres til Microsoft Teams - vi kunne på vores peering-grafer se en voldsom stigning i trafikken til og fra Microsoft hver morgen omkring kl. 08:00. Sidst på eftermiddagen erstattes trafikken fra Microsoft med trafik fra streaming services i stedet :)

Jeg har til gengæld oplevet en højere crest-factor i kundernes humør, subjektivt målt i henvendelserne til vores kundeservice i januar måned - dels har vi haft højere load pga. store kundebevægelser i det jyske, dels skal der mindre til, før låget ryger af bøtten, når man skal passe et arbejde, samtidig med at man har hjemmeskolede børn, der keder sig, vejret er trist og man i øvrigt savner det liv, man kendte. Det er heldigvis blevet væsentligt bedre i februar og marts.

  • 15
  • 0
#13 Yoel Caspersen Blogger

Lige nu har jeg selv svært ved at se hvad jeg skulle bruge 2.5Gbit/s til, men på den anden side sagde nogen engang: "There is no reason anyone would want a computer in their home." - Det er nok mest et spørgsmål om hvor lang tid der går, før 2.5Gbit/s er standard...

Og det er lige præcis den fælde, vi gerne vil undgå at falde i. Jeg kan ikke rigtig pege på behovet lige nu, men der er sikkert nogle, der vil sige det samme om IPv6, og her insisterer vi jo på at være med. Fordi det er fremtiden.

Mit eneste problem med 2,5 Gbit/s er, at det lige nu ligner en niche. Næsten al netværksudstyr fremstilles til enten 1, 10 eller 100 Gbit/s.

[1] hører stedet under Nordenergi, TDC, eller? ;-)

Midt ude i Nordsøen? Jeg ville umiddelbart gætte på, din lokale netejer er Inmarsat ;)

  • 3
  • 0
#14 Maciej Szeliga

Gbit/s-port på WAN-siden og en eller flere LAN-porte på 10 Gbit/s - og nok også nogle 1 Gbit/s-porte til legacy-udstyr.

Selv om udvalget af consumer-hardware med den slags specs ikke er voldsomt stort, må det være et problem, der kan løses.

Der er en hel del bundkort, NAS'er mv med 2x1 Gbit som kan bundles som Trunks eller Etherchannels (for eksempel QNAP) så det er i virkeligheden nok at de 2,5 Gbit kan leveres som trunk på flere porte. Der findes også switche og routere i hvert fald ned til SOHO classen som kan trunke porte (for eksempel HPE og NetGear).

...og så er der en nyt potentielt segment: multibruger hjemmekontoret (både mor og far arbejder hjemmefra på samme tid) som skal virke på samme tid som ungerne streamer / spiller / er i skole online (som man måske kan forstå er jeg Pandemi-pessimist).

  • 0
  • 0
#16 Ivo Santos

Min forbindelse er blevet opgraderet til 300/300, men routeren jeg benytter er på 100 mb på wan siden. Min ejendom er en del af et større beboernet.

Nu er det så ikke forbi jeg har behov for mere end 50 mbit på nuværende tidspunkt.

En mulig bruger scenarie på 1 gbit kunne være en hjemmeside på ens egen hardware, eller en spilleserver måske.

  • 0
  • 1
#17 Poul-Henning Kamp Blogger

Mit eneste problem med 2,5 Gbit/s er, at det lige nu ligner en niche. Næsten al netværksudstyr fremstilles til enten 1, 10 eller 100 Gbit/s.

Hardwaremæssigt er 2.5 Gbit bare 10 Gbit med ¼ clock-frekvens og den primære driver synes at være at 10Gbit gennem RJ45 ikke er amatørvenligt.

Jeg har ikke fingeren i ethernet-chips nu om dage, men jeg vil blive forbavset hvis ikke det meste 10G udstyr allerede kan i hardware.

  • 2
  • 0
#18 Jesper Westendahl

Ved ikke om det overhovedet bliver en mulighed, men jeg ville hjertens gerne have en 2,5Gb/s fiber-forbindelse i stedet for det jeg har nu. Jeg scraper dagligt et stort antal webshops med egenudviklet software som udnytter samtlige cores (multi-threads) og mine initielle deep-scrapes har været oppe på ca 700GB data for en enkelt shop. Så jeg kunne godt se en use-case hvor jeg kunne have glæde af 2,5Gb/s, men tror desværre ikke at det bliver muligt da jeg befinder mig 3-400 meter fra nærmeste vej med fiber, midt i et coax kabel-tv villa-område :-( Er som sådan klar med 10Gb/s internt kablet i huset til min server, men mangler blot at opgraderet netkortet i den.

  • 1
  • 0
#19 Yoel Caspersen Blogger

Det var ikke det samlede forbrug jeg var interesseret i, men forskellen på max og gennemsnit, dvs. om I kan se at folk smider flere store dokumenter frem og tilbage og det truer jeres aggregerings-faktor ?

Det er jeg med på, men et øget forbrug i dagtimerne medfører et højere gennemsnit. Når gennemsnit stiger og peak (som er om aftenen) forbliver det samme, falder crest-faktoren (hvis jeg ellers forstår den korrekt!).

Det er ikke mit indtryk, at filoverførsler i forbindelse med hjemmearbejdspladser har den store betydning i det samlede billede - men jeg ved det faktisk ikke. Det er små datamængder, der er tale om, så det ses ikke på vores 5-minutters grafer, men i teorien kunne filoverførsler godt medføre microbursts, som kortvarigt spiser af kapaciteten på en GPON-port i kundens nærområde. Det har dog umiddelbart ingen betydning i vores backbone-net.

  • 6
  • 0
#20 Poul-Henning Kamp Blogger

Det er små datamængder, der er tale om, så det ses ikke på vores 5-minutters grafer, men i teorien kunne filoverførsler godt medføre microbursts, som kortvarigt spiser af kapaciteten på en GPON-port i kundens nærområde. Det har dog umiddelbart ingen betydning i vores backbone-net.

Det var der jeg ville hen.

Jeg ville nok lave nogle stikprøver med højere tidsmæssig opløsning end 5min, bare for at vide hvordan billedet ser ud, for kunderne interesserer sig ikke for fem minutters gennemsnit.

Traditionen med 5 minutters opsamling stammer oprindeligt fra statistisk stikprøvearbejde fra analog-telefonens matematiske barndom.

Fem minutter blev valgt fordi det var kort nok til at være i størrelsesorden af det mediane telefonopkald og langt nok til at det var realistisk at lave "peg-count" målingerne manuelt.

Fylder man den moderne nettraffiks mønster i den samme slags Erlang-integraler, ligner det at man burde lave stikprøverne i 100msec området.

  • 8
  • 0
#21 Michael Cederberg

Mit eneste problem med 2,5 Gbit/s er, at det lige nu ligner en niche. Næsten al netværksudstyr fremstilles til enten 1, 10 eller 100 Gbit/s.

Intel har smidt 2.5GHz i deres nyeste NUC's. Når vi er kommet derned så er der en hvis sandsynlighed for at der sker noget. Som jeg forstår det er strømforbruget markant lavere ved 2.5GBase-T end ved 10GBase-T.

Traditionen med 5 minutters opsamling stammer oprindeligt fra statistisk stikprøvearbejde fra analog-telefonens matematiske barndom.

Nemlig. Det er er ikke spor anderledes end når IT afdelingen fortæller at min server kun kører med 0.1% belastning i løbet af dagen og at de derfor har valgt køre en række andre ting på samme boks. Det ville være fint hvis ikke lige jeg havde behov for 100% af resourcerne i 2 minutter hver dag og omkostninger ved at jeg ikke får resourcerne er høje.

Når man midler er man nødt til at kigge på hvor lang latency der er acceptabel og så nytter det ikke noget at regne på længere perioder.

Og det er lige præcis den fælde, vi gerne vil undgå at falde i. Jeg kan ikke rigtig pege på behovet lige nu, men der er sikkert nogle, der vil sige det samme om IPv6, og her insisterer vi jo på at være med. Fordi det er fremtiden.

Men man kan jo kigge på hvad vi bruger båndbredde til. I starten var det email og der var 300 baud "acceptabelt". Siden har vi fået billeder, video og html/javascript som synes at spise meget. Ved siden af er der fil download men der synes den øvre grænse at være lokal storage og "forbrug" af det downloadede. Under alle omstændigheder synes ovenstående at være dækket at 1Gbit/s for 99.9% af forbrugerne. Spørgsmålet er hvad nyt der kan komme til som markant vil kræve mere båndbredde. 8K video? 3D virtual reality? Cloud AI? Der synes ikke noget på radaren lige nu men vi er nok heller ikke der hvor "alt der kan opfindes er opfundet".

  • 6
  • 0
#22 Yoel Caspersen Blogger

Alas, vi mangler en diskussion i samfundet om hvorvidt det er ønskeværdigt hvis mange ting kun kan fungere med internet adgang. Lige nu ærgrer jeg mig stadigvæk over at jeg kun kan ændre temperaturen på varmen til gulvvarmen i badeværelset når min internetforbindelse fungerer. Det gør den heldigvis stort set altid.

Da jeg satte huset i stand for 12 år siden, investerede jeg i en række lysdæmpere fra LK - og det har jeg fortrudt. Ganske vist var det i en årrække lækkert at kunne dæmpe lyset på badeværelset om natten, men realiteten er nu, at den ene lampe i min gang har været afbrudt i et halvt års tid, fordi det er blevet tæt på umuligt at opdrive halogenpærer, som virker sammen med dæmperen - og jeg skal derfor have fundet ud af, hvad jeg gør på lidt længere sigt.

Da jeg renoverede min kælder for 8 år siden, installerede jeg et gulvvarmesystem med trådløse termostater. I dag er to af dem brændt af, og Danfoss producerer ikke de pågældende termostater mere. Om jeg kan få nye termostater, der er kompatible med styringen, aner jeg ikke, men til sammenligning er det ikke ualmindeligt, at en manuel radiatorventil kan holde i 50 år eller mere.

Displayet på mit ventilationssystem har i flere år været smådefekt, og helt generelt er det efterhånden kommet dertil, at jeg til alle de kedelige ting (varme, vand, strøm, ventilation osv) foretrækker analoge ting, der ikke går i stykker eller bliver obsolete.

Er jeg mon ved at blive gammel? ;)

  • 21
  • 0
#23 Yoel Caspersen Blogger

Det var der jeg ville hen.

Jeg ville nok lave nogle stikprøver med højere tidsmæssig opløsning end 5min, bare for at vide hvordan billedet ser ud, for kunderne interesserer sig ikke for fem minutters gennemsnit.

Og her tager du hul på et emne, der er meget stort, og egentlig fortjener sit eget blogindlæg.

Men du rammer hovedet på sømmet: Ikke alene er GPON et delt medie, men det er også et medie, der er delt mellem forskellige udbydere med forskellige shaping-strategier og kundetyper. Det giver en lang række udfordringer, som der p.t. ikke er nogen simple løsninger på.

Til sammenligning er et P2P-net væsentligt nemmere at arbejde med - der kan man som udbyder shape sig ud af de fleste problemstillinger.

  • 6
  • 0
#24 Yoel Caspersen Blogger
  • 1
  • 0
#26 Kjeld Flarup Christensen

Mit eneste problem med 2,5 Gbit/s er, at det lige nu ligner en niche. Næsten al netværksudstyr fremstilles til enten 1, 10 eller 100 Gbit/s.

Umiddelbart kunne man godt få den tanke at det bare er en midlertidigt teknologi, inden alt fiber bliver 10 Gbit/s

Så hvad er behovet

  • Diskløse computere til grafiske applikationer.
  • Restore af backup, når det brænder på, så brænder det på og download af en TB tager sin tid.
  • Cloud computing hvor du køber CPU tid til en simulering, men beholder dine dyrebare data på dine egne diske.
  • 2
  • 0
#28 Jan Jakob Jessen

Jeg ser frem til at dette er et problem der også er relevant for undertegnede :-) Her i det centrale Aalborg kan jeg med frustration konstatere at GlobalConnect har fiber i vejen men de vil kun sælge til firmaer - mindstepris i omegnen af 1300 dkr/mdr eks moms. Samtidig er Norlys ved at etablere fibernet på vegne af Bane Danmark. Adspurgt om de ikke ved samme lejlighed kunne smide et kabel forbi min lejlighed oplyser de, at de kun sælger til erhverv - de skal jo nødig udsulte Stofas internet-over-antennekabel-forretning.

/surt_opstød_off

  • 4
  • 0
#29 Poul-Henning Kamp Blogger

Umiddelbart kunne man godt få den tanke at det bare er en midlertidigt teknologi, inden alt fiber bliver 10 Gbit/s

Nej, jeg tror snarere du skal se NBASE-T som "hvad gør vi for at forbrugerne skal undgå at rode med fiber"

Man kan godt lave "forbrugersikre" fiberkabler, men de er meget stive og klodsede at arbejde med, fundamentalt et miniature PEX rør.

Dertil kommer balladen med at holde kontaktfladerne rene osv.

RJ45 er et utroligt genialt design, på alle mulige måder, så det slipper vi ikke af med nogensinde.

Med nutidens halvlederteknologi er 10G grænsen for hvad man kan klemme igennem et twisted-pair kabel og 2.5G og 5G er et simpelt "hack" for at få mere robust transmission og længere rækkevidde ved at reducere clockfrekvensen.

Man kan godt komme højere op, men der skal uforholdsvis meget mere DSP kraft til at vikle bits ind og ud af Maxwells Ligninger og fedteriet med at "parallelisere" Moores Lov er ingen hjælp til her.

  • 7
  • 0
#31 Michael Cederberg

Diskløse computere til grafiske applikationer. Restore af backup, når det brænder på, så brænder det på og download af en TB tager sin tid. Cloud computing hvor du køber CPU tid til en simulering, men beholder dine dyrebare data på dine egne diske.

Men hvad er du villig til at betale for det?

Jeg kunne godt bruge Gigabit+ til at tage en rigtig hurtig backup.

Hvis jeg skal flytte en film eller store filer fra en ekstern hurtig NAS, til en lokal disk (eller omvendt), så er gigabit jo faktisk en flaskehals (selvom det kun tager minutter).

Men hvad er du villig til at betale for det?

Nej, jeg tror snarere du skal se NBASE-T som "hvad gør vi for at forbrugerne skal undgå at rode med fiber"

Jeg kan hælde 10GBase-T gennem CAT7 kabler over 85 meter (mit længste kabel er 55 meter men skulle lige teste). De fleste forbrugere har ingen ethernet kabler i forvejen så at vælge CAT6A eller bedre er kun et monteringsproblem i forhold til CAT5e. Det er stort set kun virksomheder der har et eksisterende CAT5e netværk de gerne vil bevare. De nyeste Intel X557 har TDP på ca. 4W ... en 8 portet 10GBase-T switch får nemt brug for aktiv køling og det gør den sværere at placere i de små hjem. Men måske kan man skubbe strømforbruget ned - strømforbruget synes halveret hvert 3. år.

  • 2
  • 0
#34 Martin Schultz
  • 2
  • 0
#35 Jacob Larsen

De fleste forbrugere har ingen ethernet kabler i forvejen så at vælge CAT6A eller bedre er kun et monteringsproblem i forhold til CAT5e.

Da jeg flyttede i hus lagde jeg CAT7 kabler overalt hvor jeg kunne komme til mens vi havde gulvene oppe. Prisforskellen var ikke stor, men stor nok til at den kunne få betydning hvis man ikke kiggede langt nok fremad til at se at de kunne risikere at ligge der i lang tid. Desuden er CAT7 temmelig bøvlede at trække rundt i sammenligning med 5e, så man skal ville det.

en 8 portet 10GBase-T switch får nemt brug for aktiv køling

Det er nok her mit største problem ligger pt. bortset fra prisen. Så ryger vi op i et strømforbrug der kan ses på elregningen

  • 0
  • 0
#36 Ivan Skytte Jørgensen

Jeg er Kviknet kunde med 1000Mbps. Til dagligt bruger jeg næppe mere end et par Mbps i gennemsnit. Da yousee begynde at levere 100Mbps til min gamle lejlighed oplevede jeg ikke længere pauser ved almindelig internetbrug.

Men 1000Mbps er så dejlig når jeg skal overføre gigabytes af logfiler fra AWS - jeg kan ikke længere nå at lave en kop kaffe.

Og ja, Yoel, du er blevet gammel mht. til termostater. En af vores konkurrenter har termostater hvor du kan checke facebook på :-)

  • 3
  • 0
#40 Baldur Norddahl

Med nutidens halvlederteknologi er 10G grænsen for hvad man kan klemme igennem et twisted-pair kabel og 2.5G og 5G er et simpelt "hack" for at få mere robust transmission og længere rækkevidde ved at reducere clockfrekvensen.

Det er primært for at gøre det billigere. I disse dage vælter det ud med routere, motherboards og switche med 2,5 Gbps porte og de kan ikke køre 10 Gbps på en kortere strækning. Det er rene 2,5 Gbps porte.

10 Gbps virker iøvrigt fint på almindelige kabler og det skruer automatisk ned for hastigheden hvis der er for langt til fuld hastighed.

  • 0
  • 0
#42 Baldur Norddahl

Fylder man den moderne nettraffiks mønster i den samme slags Erlang-integraler, ligner det at man burde lave stikprøverne i 100msec området.

Vi sælger 1000 Mbps upstream på en delt 1250 Mbps. Og jeg er faktisk ikke klar over hvordan de to teknologier relaterer med hensyn til overhead. Det er så tæt på det samme, at jeg ikke behøver nogen målinger for at sige at linjen i 100 ms intervaller ofte er belastet 100%.

Det er i sig selv ikke interessant. Det vi gerne vil kende er chancen for, at en speedtest til enhver tid viser fuld hastighed. Indtil videre ser det ud til at den chance er pæn god selv hvis man er over 100 husstande om at deles.

Hvis man ser på en typisk GPON port, så ligger max på upstream på en 20-50 Mbps målt i 5 minutters intervaller. Det kan vi betragte som en slags baggrundsstøj og så forholde os til chancen for at to kunder samtidig uploader noget større ved fuld hastighed.

Intet tyder på at linjen nogensinde når 100% belastning downstream.

  • 3
  • 0
#43 Martin Schultz

Jeg ville gerne købe produktet hvis det koster 500-600 kr, mest fordi jeg er fjollet og gerne vil have det hurtigste. Min nuværende gigabit er egentligt hurtig nok men hurtigt nok er ikke godt nok ;) I hverfald ikke hvis bedre er til fornuftige priser.

Med hensyn til slutbruger udstyr kan jeg se at TP link har wifi routere med en enkelt 2,5 gigabit uplink port til under 2000 dkr. Det er nok ikke det mærke jeg ville købe, jeg er mere til ubiquity eller mikrotik men det viser da at produkterne hurtigt kommer ned i pris (AX6000).

  • 1
  • 0
#44 Baldur Norddahl

I så fald er det sandsynligvis ikke en 10G port, men en NBASE-T port, der netop kan drosle ned til 5G eller 2.5G.

Ja min pointe er bare at vi nu ser consumer produkter der leveres med 2.5GBASE-T i stedet for NBASE-T. Den eneste motivation for det er pris. Det vil på alle måder være et bedre produkt hvis de leverede en rigtig NBASE-T port.

Eksempelvis Netgear RAXE500, en Wifi 6E router der har 5x 1G og 1x 2,5G:

https://www.netgear.com/home/wifi/routers/raxe500/

Asus har en tilsvarende. De er alle samme ens med præcis dette antal porte, hvilket kan fortolkes som at der er et chipset der kan lige det.

  • 2
  • 0
#45 Kim Henriksen

Jeg læste tilfældigvis debatten igennem, mens jeg ventede på at Steam blev færdig med downloade et computerspil - jeg tog lige et et screenshot af download grafen i Steam klienten.

Screenshot: https://imgur.com/a/VwE3kxL

Selvom i siger i ikke kan se noget behov ud fra jeres gafer, så vil jeg da godt lige fortælle jer, at jeg er da træt af ventetiden (særligt her i min dyrbare ferie), når jeg vil spille computerspil, og jeg er træt af bruge uforholdvis mange penge på SSD lagerenheder, for at opbevare alt det spildata lokalt (dem vil jeg da så hellere give til min internet udbyder).

Gaming er en etableret use case, hvor forbrugerne vil have stor gavn af endnu mere båndbredde og lavere latency.

Et moderne computerspil installation kan nemt fylde 100GB og tilføjer man community mods oven i, så kan vi snakke om hundredevis af GB.

Vi må nok sande at cloud gaming er noget, som ligger meget langt ude i fremtiden, da det på stående fod, tilføjer uacceptabel høj latency og andre kvalitetsproblemer, og der derfor forsat er et behov for at levere spildata til forbrugere i en rum tid endnu, hvert fald indtil nogle har opfundet en metode, der rent faktisk kan rendere og levere hundredevis af frames i sekundet i høj oplysning over lange afstande via internettet på meget få miliskunder og for den sags skyld modtage input fra klienter uden nævneværdig forsinkelse den anden vej.

En anden lille tanke, nu jeg bringer gaming på bordet, hvorfor er båndbredde den eneste tekniske parameter, som danske ISP'er konkurrere på, hvorfor f.eks. ikke latency, det har jo også kæmpe betydning for multiplayer spiloplevelser eller for den sags skyld IPv6, som kan også forbedre hele spiloplevesen ?

Microsoft anbefaler rent faktisk IPv6 på deres Xbox live support side: https://support.xbox.com/da-DK/help/hardware-network/connect-network/ipv...

Mere IPv6/Xbox information: https://download.microsoft.com/download/A/C/4/AC4484B8-AA16-446F-86F8-BD...

  • 5
  • 1
#47 Chriztoffer Hansen

Man kan diskutere størrelsen af kunde gruppen i dagens Danmark. Lignende historier kan forefindes på internettet for udbydere der tilbyder 10G til privat kunder. Fiber (med converter boks fiber til RJ45) er i mine øjne vejen fremad. Nogle vil utvivlsomt købe produktet på stedet til 500 - 700 dkk/mnd. Tænker personligt prisen skal under 500 dkk/mnd før der sker et større markeds gennembrud.

Samme lignet med eks. Tyskland, hvor jeg gir 50 eur/mnd på en 24 mnd kontrakt for 250/40 Mbit, arnes jeg ~600 dkk/mnd for 2500 Mbit downstream lyder 'billigt' 🤑

Hvis jeg var kviknet kunde i dag ville jeg tage produktet uden de store kvaler ift. prisen.

Men alt er jo relativt når det kommer til stykket. Med eks en hjemme NAS vil høj upload altid være at foretrække.

2.5/5GE har sin use case for en niche del af markedet. Så længe prisen er over 500 dkk/mnd. Hvortil den under den pris har chance for et bredere gennembrud i markedet. (imo)

Cat 5e kan - hvis jeg husker spec korrekt - køre 2½ GE over kortere afstande <30m. 🤔

Så for 'nørderne' vil >1G wan være vejen frem. Hvor prisen betyder lidt mindre. For HR og FRU Danmark tror jeg den gennemsnitlige markeds pris skal under 500 dkk/mnd før >1G wan for alvor bliver interessant (+ isp der kan tilbyde valgfri opgradering til 2½G capable wan router uden de helt store ekstra omkostninger)

  • 1
  • 0
#48 Kim Henriksen

Re: Der er da et larmende fravær af gamere i denne debat

mens jeg ventede på at Steam blev færdig med downloade et computerspil  

Og du er sikker på, at flaskehalsen ikke ligger i Steams ende.

Det ved jeg ikke, men mit "brokkeri" har jo sådan set heller ikke så meget at gøre med, hvor der konkret er en flaskehals, blot at der er en og den gør at jeg skal stirre ind i skærmen i en time ...

Jeg prøver sådan set blot at illustrere et område, som vil have gavn at høj båndbredde - jo mere jo bedre.

Vi skal jo netop op på sådan noget ala 2.5 Gbit/s, hvis du ville skulle kunne launch et 100GB spil på under 60 sekunder og alt sammen skal overføres først. (Konsol spil kan sagtens fylde det samme eller mere)

  • 2
  • 2
#50 Yoel Caspersen Blogger

Jeg læste tilfældigvis debatten igennem, mens jeg ventede på at Steam blev færdig med downloade et computerspil - jeg tog lige et et screenshot af download grafen i Steam klienten.

Screenshot: https://imgur.com/a/VwE3kxL

Jeg kiggede lige på dit screenshot - du er ved at hente 82,6 GB, og peak download speed er på 27,8 MB/s = 222,4 Mbit/s.

Hvis du allerede har 1000 Mbit/s i dag, er der flere oplagte flaskehalse:

  • Rate limiting på serveren, du henter fra
  • Pakketab i buffers pga. bursty trafik (evt. "baggrundstrafik" på din PC)
  • Latency

De to sidste parametre er sandsynligvis de vigtigste, for jeg vil gætte på, at Steam o.a. har optimeret deres systemer efter at få skubbet en helvedes masse data igennem så hurtigt som muligt.

Mht. pakketab og latency, er det fænomenet "bandwidth delay product", man skal være opmærksom på. I praksis betyder det, at throughput på en TCP-session mellem en server og en klient afgøres af latency og den mindste buffer size på linket. Jo mindre buffer, og jo højere latency, jo lavere bliver throughput.

Se evt. en udmærket calculator her:

https://www.switch.ch/network/tools/tcp_throughput/

En anden lille tanke, nu jeg bringer gaming på bordet, hvorfor er båndbredde den eneste tekniske parameter, som danske ISP'er konkurrere på, hvorfor f.eks. ikke latency, det har jo også kæmpe betydning for multiplayer spiloplevelser eller for den sags skyld IPv6, som kan også forbedre hele spiloplevesen ?

Jo lavere latency, jo bedre bliver alting. Det er indiskutabelt.

Men det bliver ret hurtigt komplekst: Latency mellem hvad?

Når en gamer taler om "ping" eller "pingtid" er der som regel tale om latency mellem klienten og den spilserver, vedkommende lige her og nu er forbundet til.

Men hvis det skal give mening at markedsføre sig på lav latency, er man nødt til at have en nogenlunde klar idé om, hvad det er for servere, klienterne vil have lav latency mod.

Har du et bud på dette? Det kunne være et lidt interessant eksperiment at se på, hvordan latency kunne optimeres.

  • 5
  • 0
#51 Morten Stryhn

Sidste år blev der lagt en del fiber ned i 2700 Brh, så der sker altså noget - dermed ikke sat at hele bydelen er dækket ind endnu, men TDC Net ligger fiber ned i større klumper og jeg forventer at der ligesom i 2720 Vanløse hvor der er lagt fiber ind ad flere omgange i 2020, vil komme mere fiber i 2700 Brh allerede i år.

  • 0
  • 0
#52 Martin Juhl Jørgensen

Har 1000/60 Mb/s over coax til ca 300 kr/md. Vi bruger ofte over 900 Mb/s når der skal downloades spil° og deres opdateringer* som er tilsvarende store - hvilket er kritisk hvis man vil kunne spille med andre folk på forudvalgte tidspunkter for at kunne planlægge i forhold til konen og børnene. Spilfirmaer er ligeglade om de smider en 60 GB patch 5 min før i skal spille, men det er børnene tilgengæld også. Som nævnt højere oppe skal ens hardware også og lokale infrastruktur også være med, så jeg kan ikke se noget behov pt. for at opgradere til 2.5 GB/s.

Uploadhastigheden er lidt til den lade side når man netop har store burst-behov, feks upload til arbejdet eller skyen (store datasæt eller feks billeder).

Overordnet kommer pålidelig, hvilket Corona har gjort meget synligt i videokonferencer (det er sjovt som x altid er grynet og taler som en robot) og spiller hostede computerspil (det er ikke sjovt når værten har latterlig klumper i latency eller båndbredde).

Jeg ville nok ikke bruge flere penge nu, selvom jeg måske engang overtalte min far til at købe til hurtigste ADSL linie provinsen kunne håndtere.

° det et lidt tilfældigt hvem der har hurtig adgang til Steam CDN, selv med samme udbyder tænker det må være baseret på geografi. Jeg har feks ikke, men min bror i Solrød har. De andre store platforme har alle konsistente høje hastigheder for mig og mine venner.

*ikke alle spilplatforme og spiludviklere formår at lave små håndgribelige patches, og mange AAA+ titler, som er 100+ GB, kræver næsten fuld download hvergang. Ugribeligt når der er tale om multiplayerspil.

  • 4
  • 0
#53 Kjeld Flarup Christensen

De to sidste parametre er sandsynligvis de vigtigste, for jeg vil gætte på, at Steam o.a. har optimeret deres systemer efter at få skubbet en helvedes masse data igennem så hurtigt som muligt.

Hvad mon gennemsnits download rate for Steams kunder mon er worldwide.

222,4 Mbit/s er i den forbindelse vel ret pænt. Så umiddelbart tror jeg ikke Steam ser et problem.

  • 1
  • 0
#54 Claus Mattsson

Har du et bud på dette? Det kunne være et lidt interessant eksperiment at se på, hvordan latency kunne optimeres.

Det burde være muligt at indentificere vigtige endpoints for gamerne og sikre via peering, direkte eller indirekte, at der er lav latency og masser af båndbredde. Så har ISP'en gjort sit.

Jeg er f.eks. ked af peering med Cloudflare og Hurricane Electric foregår på NL-IX.

Det burde måske også være muligt at prioritere trafik i sit net, således der opleves lavere latency. Man ville kunne sælge 'gamer profiler'. Men det giver selvfølgelig køb på et andet vigtigt punkt omkring netneutralitet. :/

  • 1
  • 0
#55 Kjeld Flarup Christensen
  • 1
  • 0
#56 Claus Mattsson

Ligger den slags features egentligt ikke i IPv6.

Det gør det muligvis. Jeg tænkte at man skulle prioritere alt der løber ud/ind af forbindelse A, på bekostning af B, C m.fl.

Vel ikke hvis det er slutbrugeren der betaler.

Hvis jeg betaler for en forbindelse, så har jeg en forståelse af at jeg har lige adgang til den, som naboen. Men det vil jeg jo netop ikke have med prioritering. Jeg tror den bliver vanskelig at sælge...

  • 0
  • 0
#57 Baldur Norddahl

Det burde måske også være muligt at prioritere trafik i sit net, således der opleves lavere latency. Man ville kunne sælge 'gamer profiler'. Men det giver selvfølgelig køb på et andet vigtigt punkt omkring netneutralitet. :/

Moderne ISP net behøver ikke prioritere trafik da alt trafik flyttes så hurtigt som naturlovene tillader uden pakketab. Men man kan ikke ændre på at der er 10+ ms latency ned til Holland, så hvis spilserveren står der, så er det minimum. Tilsvarende til Stockholm. Desværre er der ikke så mange der har servere i Danmark.

  • 4
  • 0
#58 Yoel Caspersen Blogger

Det burde måske også være muligt at prioritere trafik i sit net, således der opleves lavere latency. Man ville kunne sælge 'gamer profiler'. Men det giver selvfølgelig køb på et andet vigtigt punkt omkring netneutralitet. :/

Området er reguleret af EU-forordningens artikel 3.

Så vidt jeg kan gennemskue, er det udelukket at prioritere trafik fra kunder med gamer-profiler over andre kunders trafik, da der i sagens natur vil være tale om en internetforbindelse ("internetadgangstjeneste").

Til gengæld kan man godt lave et tillægsprodukt, fx en VPN eller lignende, der giver en (mere) direkte adgang til en specifik spiludbyders netværk. Men det må ikke være en erstatning for en internetforbindelse, og det må ikke gå ud over øvrige kunder.

  • 3
  • 0
#60 Yoel Caspersen Blogger

Bedste eksempel findes stadig ved at gå på https://www.cogentco.com/en/looking-glass og lave en trace fra Copenhagen routeren til f.eks. auth05.ns.tdc.net :)

Nu er TDC's routes heller ikke helt normale. TDC insisterer nemlig på, at man skal betale for at peere med dem i DK.

Dermed får de dobbelt betaling for trafikken - deres kunder har jo allerede en gang betalt TDC for at flytte trafikken gennem deres net.

Det er lige præcis den slags monopolistisk adfærd, netneutraliteten er skabt for at modvirke.

  • 8
  • 0
#62 Kim Henriksen

Jeg kiggede lige på dit screenshot - du er ved at hente 82,6 GB, og peak download speed er på 27,8 MB/s = 222,4 Mbit/s.

Hvis du allerede har 1000 Mbit/s i dag, er der flere oplagte flaskehalse:

Rate limiting på serveren, du henter fra    
Pakketab i buffers pga. bursty trafik (evt. "baggrundstrafik" på din PC)    
Latency  

Jeg har 600/600 Mbit/s hos Dansk Kabel TV, men selv hvis alle 600 Mbit/s blev benyttet, så er download af 100GB stadigvæk ikke komfortabelt, som jeg nævnte 2.5 Gbit/s vil betyde under 60 sekunder :-)

Hvis vi tillader os at drømme lidt og lige glemme den virkelige verden og alle de praktiske problemer et øjeblik, så ville det da altså være blæret at kunne download og launch et 100GB spil på under 60 sekunder, det ville jo netop betyde at man ikke skulle opgradere årligt med SSD'er, efterhånden som spilbibloteket vokser, fordi man vil jo bare ville download spillet on-demand.

Spil opdatering er også skide irriterende, som en anden også skriver om her. Det er sgu surt at komme for sent til online krigen med vennerne, fordi der lige er 10-20 GB opdatering, der skal hentes først, særligt med en stram tidsplan i dagligdagen.

I øvirgt, måske ISP'er generelt kunne hjælpe til her, de kunne vel i princippet køre cache noder lokalt i sit net: https://lancache.net

Kviknet har da i virkeligheden en ret god position, til at blive gamernes ven nr 1 - jeg tror folk er villige til at betale for sådan noget som ekstra services.

Jo lavere latency, jo bedre bliver alting. Det er indiskutabelt.

Men det bliver ret hurtigt komplekst: Latency mellem hvad?

Når en gamer taler om "ping" eller "pingtid" er der som regel tale om latency mellem klienten og den spilserver, vedkommende lige her og nu er forbundet til.

Men hvis det skal give mening at markedsføre sig på lav latency, er man nødt til at have en nogenlunde klar idé om, hvad det er for servere, klienterne vil have lav latency mod.

Har du et bud på dette? Det kunne være et lidt interessant eksperiment at se på, hvordan latency kunne optimeres.

Det har jeg ikke rigtig, da online spil køre jo virkelig efter mange "hosting" modeller, alt lige fra den gamle klassiske hvor der er tale om en dedikeret server, som spillerne selv er "anvarlige" for at hoste, til P2P-systemer, hvor hosten udvælges tilfædligt blandt en gruppe af spillere også har man MMO-spil hvor man granulere på store geografisk områder (Asia, Europe, US east, US west osv..).

Men man kunne vel starte med at undersøge lidt om hvordan spillere "finder" hinanden til at starte med :-) ?

Microsoft måler f.eks. latency: https://www.microsoft.com/en-us/research/publication/matchmaking-for-onl...

Der findes i øvrigt også MANGE internet (VPN?) tjenester som disse:

Om de holder hvad de lover, det tvivler jeg på, men det er vel værd at undersøge, jeg tænker at siden de findes, så er der vel også nogle er villige til at betale for det :-)

Anyway, som nævnt før, endnu ekstra service Kviknet kunne markedsføre til gamere (hvis det da virker i den virkelig verden).

Hvad mon gennemsnits download rate for Steams kunder mon er worldwide.

222,4 Mbit/s er i den forbindelse vel ret pænt. Så umiddelbart tror jeg ikke Steam ser et problem.

Jeg tror ikke at det er noget specielt, jeg har da personligt set minm Steam klient peak ved 50 MB/s, men det er slet ikke nok.

Vi skal op over 250 MB/s sustained transfer rates, hvis donwload tiden skal være komfortabelt, med nutidens spilstørrelser.

Det burde være muligt at indentificere vigtige endpoints for gamerne og sikre via peering, direkte eller indirekte, at der er lav latency og masser af båndbredde. Så har ISP'en gjort sit.

Jeg er f.eks. ked af peering med Cloudflare og Hurricane Electric foregår på NL-IX.

Hvis man læser på internettet, så synes jeg at der tegner sig et billed af, at Kviknet faktisk får hug på det område, det virker til at være særligt vest for Storebælt, folk er utilfredse, da det er steget markant fra hvad de var vant til.

  • 5
  • 0
#63 Kim Henriksen
  • 0
  • 0
#64 Kjeld Flarup Christensen

Har du et bud på dette? Det kunne være et lidt interessant eksperiment at se på, hvordan latency kunne optimeres.

Igen synes jeg at vi mangler IPv6

I dag går mange services via en cloud løsning for at man kan spille sammen. Men med IPv6 kunne man gå peer to peer og spare tid.

Det vil kræve nye gameengines og forretningsmodeller, men der er noget at hente.

  • 2
  • 0
#68 Yoel Caspersen Blogger

Hvis man læser på internettet, så synes jeg at der tegner sig et billed af, at Kviknet faktisk får hug på det område, det virker til at være særligt vest for Storebælt, folk er utilfredse, da det er steget markant fra hvad de var vant til.

Men det giver ingen mening, at det i særlig grad skulle gå ud over kunder vest for Storebælt. Vores peering-aftaler er præcis de samme, uanset om kunden befinder sig i Herning eller i København.

Det er dog korrekt, at der er en teknisk ændring i Norlys' net - tidligere havde alle kunderne samme udbyder, og den enkelte kundes forbindelse blev layer 3-termineret i det lokale teknikhus.

Men ved overgangen til OpenNet transporteres trafikken fra den enkelte kunde nu ud af Norlys' net til terminering hos den pågældende operatør. Det medfører nødvendigvis en stigning i latency mellem to kunder i samme område - især, hvis de har valgt to forskellige operatører.

Vi kigger p.t. ind i, om vi skal have en POP i det jyske, så vi kan layer 3-terminere kunderne så tæt på Norlys' net som muligt. Det kan have en positiv effekt for visse use cases, mens det for de fleste andre use cases blot er et fordyrende led.

  • 5
  • 0
#69 Kim Henriksen

Men det giver ingen mening, at det i særlig grad skulle gå ud over kunder vest for Storebælt. Vores peering-aftaler er præcis de samme, uanset om kunden befinder sig i Herning eller i København.

Her er et eksempel: https://www.hardwareonline.dk/traad.aspx?fid=16&tid=995086#24 (følg "CyberOpz"'s og "Peter."'s samtale i tråden).

Det skal ikke lyde som om jeg har nogen større indsigt i det og jeg er jo heller ikke Kviknet kunde (don't shoot the messenger)

Men det jeg forstår på det hele:

  1. Alt trafik ryger til Tåstrup, fordi det her du fordeler det videre - det giver vel måske 5-10 ms ekstra, disse kunderes trafik skulle måske ikke tidligere til København for at komme til udlandet f.eks. ?
  2. Noget trafik ryger (unødvendigt) til Frankfurt ?
  • 3
  • 0
#73 Christian Halgreen

Igen synes jeg at vi mangler IPv6

I dag går mange services via en cloud løsning for at man kan spille sammen. Men med IPv6 kunne man gå peer to peer og spare tid.

Jeg kan ikke helt følge logikken her. Nok er der mange udbydere, der ikke tilbyder IPv6,men på næsten alle adresser i DK er der udbydere, der tilbyder IPv6, enten på TDC's kobbernet eller på TDC's fibernet. Sikkert også på mange andre infrastrukturer.

Men IPv6 er vel ikke nødvendigt for at kunne spille peer to peer. Der kan etableres forbindelse gennem NAT, både NAT i din lokale router og igennem CG-NAT, hvis din udbyder benytter det på IPv4. Jeg er ikke vokset op med computerspil, men har ikke problemer med at tilgå min NAS 'udefra' ved at bruge en Dynamic DNS.

  • 0
  • 0
#74 Jacob Larsen

Nu kommer den nemt op på 8-10ms

Det var så ikke helt korrekt. De 8-10ms er til en Kviknet server i Taastrup som Speedtest vælger pr. default. Der er 17ms til serveren i Hirtshals, hvilket nok er turen frem og tilbage. Så der er nok nogle gamere her i området der har oplevet en stigning i latency på 13-14ms imellem hinanden efter et skift til Kviknet. Det kunne der nok blive nogle vrede ord på internettet ud af.

  • 0
  • 0
#75 Kjeld Flarup Christensen

Der kan etableres forbindelse gennem NAT, både NAT i din lokale router og igennem CG-NAT, hvis din udbyder benytter det på IPv4.

Med mindre udbyderen tilbyder noget, som kan åbne en port så sætter CG-NAT dig reelt skakmat.

Og har du en almindelig IP med en NAT router, skal du åbne for din service i routeren.

Der er ikke noget der virker lige ud af boksen, og det gør at man virkeligt skal ville det.

Tag apps som Skype, Whatsapp, Telegram, Messenger etc. Det er big business. Og de ville ikke have så stor gennemslagskraft, hvis ikke det var fordi de løste NAT problemet for brugerne.

Hvis vi alle havde IPv6, så kunne enhver lave den slags apps, uden at skulle rode med en server part til at loope trafikken. Og så går Google og Facebook (og NSA) glip af at snage i hvem vi kommunikerer med.

  • 2
  • 0
#76 Lasse Mølgaard

Men 1000Mbps er så dejlig når jeg skal overføre gigabytes af logfiler fra AWS - jeg kan ikke længere nå at lave en kop kaffe.

De minder mig om sidste uge, hvor jeg var ude for noget lignende.

Jeg ville hjælpe mit gamle gymnasium med at lave et TV studie ud af 5 Raspberry Pies med fastmonterede 720p videokamera.

Noget med at jeg skulle lave et specielt 64 GB image, som skulle klones til hver raspberry.

Overførslen foregik via min server i Holland, som sidder på en 10 Gbps-forbindelse.

Det er den eneste gang jeg har set udnyttelse af båndbredde i procent på serveren havde mere end 1 ciffer ned til decimalen, da skolen gik i gang med at downloade imagen fra min server.

Tror den peakede på omkring 28%. :-)

Så jeg er fin tilfreds med de cirka 100 kr / mdr, som jeg sender i retning af Holland. :-)

... men i det daglige har jeg ikke voldsomt behov for 1 Gbps+.

Det bliver højst til Netflix, HBO og Disney+, samt download af patches til diverse spil på X-box eller PC.

Men patches kan også være slemme, som i 50 GB+ slemme.

For ikke at tale om hvor meget data man skal downloade hvis man sletter et spil og geninstallere det på et senere tidspunkt.

Eksempelvis kunne World of Warcraft oprindeligt være på 1 DVD skive, men i dag fylder den vel tættere på 120 GB på min harddisk.

Det er kun i disse tilfælde hvor ens tålmodighed kan blive lidt tynd og synes at det kan ikke gå hurtigt nok med at downloade ALT.

  • 1
  • 0
#77 Christian Halgreen

Med mindre udbyderen tilbyder noget, som kan åbne en port så sætter CG-NAT dig reelt skakmat.

Du har givetvis ret,men jeg forstår det ikke. CG-NAT har vel ikke 'lukkede porte'. CG NAT fungerer ikke som en firewall, ligesom NAT routeren gør det. Hvis CGNAT var et stort problem for peer-to-peer kommunikation, ville det ikke være svært at finde en udbyder, der tilbød offentlige IPv4 adresse.

Og har du en almindelig IP med en NAT router, skal du åbne for din service i routeren.

Ja, men det er vel heller ikke så svært at åbne fra den spilclient, der befinder sig bag ved routeren.

  • 0
  • 1
#78 Kjeld Flarup Christensen
  • 0
  • 0
#80 Baldur Norddahl

Du har givetvis ret,men jeg forstår det ikke. CG-NAT har vel ikke 'lukkede porte'.

De fleste udbydere forsøger at lave cg nat så åbent som muligt, så eksempelvis STUN og andre nat traversal teknologier fungerer. På den anden side så er port mappings kortlivede, så du vil opleve afbrudte forbindelser og andre problemer. Det er ikke kønt og virker langt fra perfekt.

  • 3
  • 0
#81 Yoel Caspersen Blogger

Det kan jeg bekræfte. På Eniig/Waoo havde jeg 3-4ms rapporteret fra Speedtest til en server i Hirtshals. Nu kommer den nemt op på 8-10ms. Jeg bor i Aalborg.

Ah ja, Nygreen IT's server i Hirtshals. Den har IP-adressen 77.68.238.229.

Lad os se, hvor høj en hastighed vi kan opnå fra vores net:

# speedtest -s 5294  
   
   Speedtest by Ookla  
   
     Server: Nygreen IT ApS - Hirtshals (id = 5294)  
        ISP: Kviknet.dk ApS  
    Latency:     8.32 ms   (0.51 ms jitter)  
   Download:   253.96 Mbps (data used: 458.5 MB)                                 
     Upload:   276.29 Mbps (data used: 492.2 MB)                                 
Packet Loss: Not available.  
 Result URL: https://www.speedtest.net/result/c/fcf15cc3-f997-4085-b894-cf031958e58a

En tilsvarende test fra Fibias net viser ca. samme resultat.

Det er ikke så mærkeligt at kunderne er utilfredse, hvis de tester mod den server - noget kunne tyde på, den er tilkoblet med et 1 G interface og måske endda med en hastighedsprofil, der er lavere end 1 Gbit/s.

Jeg skrev for nogle år siden om den problemstilling.

Speedtest.nets algoritme udvælger by default servere, der står fysisk tæt på - uanset hvor langt væk, de er, når det kommer til det underliggende netværk. Det burde kunne løses på en mere elegant vis (fx ping-test direkte fra browseren mod de forskellige speedtest-servere kombineret med Speedtest.nets viden om AS-numre m.v.), men det er sådan, det er p.t., og det giver os store udfordringer.

Nygreen IT burde i øvrigt pille deres server af nettet, hvis den ikke er forbundet med 10 Gbit/s interface. Som det er lige nu, forårsager deres server rigtig mange frustrationer hos nordjyske 1000 Mbit/s-kunder og deres respektive internetudbyderes supportmedarbejdere, som skal bruge tid på at rydde op efter misvisende hastighedstests.

Når vi nu ser bort fra Speedtest.net, deres defekte selekteringsalgoritme og langsomme servere, så er der et mere grundlæggende spørgsmål, der trænger sig på: Hvad er det egentlig, kunderne har behov for?

Størstedelen af den trafik, der går til kunder i Nordjylland, kommer i en eller anden form fra København. Det gælder gåde trafik fra indholdsudbydernes cache servers samt trafik, der udveksles via IX'er.

Der er umiddelbart kun to fordele ved at layer 3-terminere forbindelsen tæt på kunden:

  1. Trafik mellem kunder hos samme udbyder routes lokalt og med lavere latency
  2. Det gør det muligt at placere en speedtest-server tæt på, så kunden oplever en højere hastighed pga. den lavere latency

Til gengæld er der en række ulemper:

  1. Prisen stiger (der skal bruges mere udstyr, mere hosting etc.)
  2. Risikoen for nedetid stiger (det er sværere at opretholde et beredskab til aktivt udstyr, der er spredt over hele landet)
  3. Hvis naboen har en anden internetudbyder, skal trafikken alligevel langt væk og retur, da ISP'erne ikke udveksler trafik lokalt

At kunden oplever en højere hastighed, selv om han får præcis samme produkt, kan være en kommerciel grund til at laver lokal layer 3-terminering. Men det ændrer ikke i praksis på det leverede produkt.

  • 2
  • 0
#82 Yoel Caspersen Blogger

Så der er nok nogle gamere her i området der har oplevet en stigning i latency på 13-14ms imellem hinanden efter et skift til Kviknet. Det kunne der nok blive nogle vrede ord på internettet ud af.

Det skal i øvrigt siges, at Nord Energis net er ved at overgå til OpenNet. Det betyder i praksis, at trafik, der før kunne routes lokalt, under alle omstændigheder vil blive transporteret til et POI (Point of Interconnect), før den kan routes - uanset hvem man vælger som internetudbyder.

Nord Energis net driftes af Norlys, og derfor er der POI følgende steder:

Hørning, Gedved, Holstebro og Herning.

Så trafik mellem to kunder i Skagen vil i et best-case scenario skulle forbi Hørning - hvor trafikken tidligere blev routed i det lokale teknikhus. Så den øgede latency er i høj grad en konsekvens af åbningen af nettet.

Vi har foreslået Norlys at lave et POI i Aalborg, men det er ikke noget, der findes i dag.

  • 1
  • 0
#83 Jacob Larsen

Det er ikke så mærkeligt at kunderne er utilfredse, hvis de tester mod den server

Throughput har aldrig været noget at råbe hurra for på den server. Men latency var ret god i gamle dage. Dog skal det siges at speedtest konsekvent vælger Kviknet serveren i Taastrup når jeg tester.

Hvis det er omlægningen af nettet der er skyld i det så er det lidt uheldigt da det kommer samtidig med at folk skifter udbyder. Dog kan jeg forstå at dem der valgte Stofa her i området er kede af deres valg, det har været ret ustabilt for dem.

Jeg gamer lidt casual og det er mest via Geforce Now. Latency målingen herfra har ikke ændret sig, så det må jo være et plus. Dog skal det siges at en enkelt session trækker 35-50Mbps ned, så det vil nok være en ting der skal holdes øje med om det bliver populært, ellers vælter det business casen på de 5Mbps i snit.

  • 0
  • 0
#84 Yoel Caspersen Blogger

Her er et eksempel: https://www.hardwareonline.dk/traad.aspx?fid=16&tid=995086#24 (følg "CyberOpz"'s og "Peter."'s samtale i tråden).

Det skal ikke lyde som om jeg har nogen større indsigt i det og jeg er jo heller ikke Kviknet kunde (don't shoot the messenger)

Ja, det er en interessant tråd, og tak til CyberOpz for at forsøge at få nogle hårde tekniske facts på plads.

Jeg ved, at der har været et problem med en række tyske IP-adresser, vi indkøbte sidste efterår, som blandt andet blev uddelt til kunder i Nordjylland. Tier 1-udbyderne GTT og Level 3 havde på et tidligere tidspunkt sat de pågældende adresser på en manuelt opdateret prefix-liste, som tvang en del af trafikken ned over Hamborg. Da vi blev opmærksomme på problemstillingen i starten af februar, blev det løst efter henvendelse til GTT og Level 3 - men det er givetvis en del af forklaringen på, at nogle har oplevet mærkelige trafikmønstre.

  • 3
  • 0
#85 Jan Jakob Jessen

Jeg har et cvr nummer, så den tanke har strejfet mig mere end én gang. Lidt status om umuligt internet i Aalborg midtby:

Efter at blive stillet frem og tilbage ved TDC fik jeg endelig en flink medarbejder i røret, som fortalte/påstod at leverandørerne har delt bykernerne mellem sig, og at det var GlobelConnect der ligger tættest på min lejlighed. TDC havde derfor ingen intention om at etablere fiber.

GlobalConnect siger eksplicit at man ikke må videresælge netforbindelsen. Tricket med at bruge sit firma og lave et nabo/opgangslaug vil nok kunne flyve under radaren, men ikke desto mindre være at forbryde sig imod købsaftalen. Det virker en smule overkill at oprette et cvr nummer med det ene formål.

Norlys skal først til at grave nu, men de er slet ikke til at komme i nærheden af ift. fornuftig dialog og planlægning så fortorvet ikke skal grave op mere end én gang - salgsafdelingen kan vist ikke snakke sammen med projektafdelingen.

Ifølge Stofa er der en forbindelse aktiveret til min lejlighed, men nogle håndværkere har på et tidspunkt cuttet antennestikket da jeg alligevel ikke brugte det. Den situation kan deres it system åbenbart ikke håndtere.

Men min ADSL 25/5 forbindelse er i det mindste pålidelig :-)

Det kunne være et interessant blogindlæg fra Yoel at høre hvordan leverandører ser på problematikken omkring bykerner og manglende fiber dér.

  • 3
  • 0
#89 Kjeld Flarup Christensen

Jeg er altså ikke sikker på at i har ret. https://www.kfst.dk/konkurrenceforhold/karteller/hvad-er-et-kartel/

En væsentlig grund er, at der er tale om etablering af infrastruktur. Denne infrastruktur er i forvejen reguleret for at sikre konkurrence. Derfor vil konkurrencemyndighederne ikke se det som et kartel.

Strengt taget så begrænser det jo konkurrence at der ikke bliver gravet to hold fiber ned i gaden. Omvendt vil det planøkonomiske Danmark sige at det er godt at der ikke skal bruges penge på at etablere 2 eller flere gange fiber, og at der derved vil kunne rulles bredbånd ud til flere for de samme penge.

  • 0
  • 0
#90 Baldur Norddahl

Det skal du melde til Konkurrencestyrelsen for det er ulovlig karteldannelse

Jeg kender begge virksomheder og konkurrencesituationen. Der er ikke nogen sådan aftale.

Derfor kan det godt være endt sådan at byen er endt med at være opdelt. Man udbygger kun nettet hvis det er rentabelt. Det er ikke sikkert at det er, såfremt en anden udbyder allerede har alle potentielle kunder.

Med TDC specifikt fungerer det sådan at man kan få dem til at etablere fiber på stort set alle adresser. Man skal "bare" betale graveprisen. Jan kan altså godt få TDC fiber men det er muligt at prisen er høj.

At bruge sit eget CVR er dog ikke den korrekte måde at gøre det. Stift en forening eller brug ejerforeningen og bestil fiberen til et bolignet. Vi sælger tonsvis af sådanne løsninger, både på TDC og GC fiber. Det er den absolut billigste måde at få højhastighedsinternet. Men kræver dog at man selv gider trække kabler i bygningen.

  • 5
  • 0
#91 Jan Jakob Jessen

Hvis der eksisterer en sådan aftale er der nok ikke alle der ved det! Men det virker sandsynligt som du skriver at det bare er endt sådan, grundet omkostninger med at grave i de centrale dele af byerne.

Jeg har tidligere haft kontor lidt længere nede ad vejen, og firmaet jeg arbejdede for have en politik om at det er TDC der leverer fiber til kontorerne, og så kan det selvfølgelig godt lade sig gøre. Som jeg husker det var det ca. 10m fortov der skulle graves op, men var efter sigende til den dyre ende.

Men det er nu lidt frustrerende at sidde her på 1. sal og lige neden for mit vindue har GlobalConnect en kassse hvor deres kabler er trukket op fra vejen - men de vil stadig ikke sælge til private. Det ville være rart hvis det bare var let :-)

  • 1
  • 0
#92 Stephane Guedon

Jeg kender use casen ... At montere hjemmesider eller virtuelle maskiner i din garage (jeg hørte mindste en fyr sige han vil gør det). Eller lave en general aftale for hele bolig-blokken, i en form for mini-ISP (der eksitere foreninger-ISP af den slags i Frankrig for eksempel).

Jeg regner ud at få fiber og tage den 1giga forbindelse med det samme og hoste min store website bag den men jeg synes ikke 2,5giga giver mening for mig.

  • 0
  • 0
#93 Maciej Szeliga

Men kræver dog at man selv gider trække kabler i bygningen.

...men det kan man jo også betale sig fra, stort set alle elektrikere laver også netværk nu om dage. Desuden er det intet problem at trække i en etageejendom, der er i forvejen "kanaler" på tværs af etagerne (i værste fald trappeopgangen) og mellem opgangene trækker man på loftet eller i kælderen - der er dog nogle brandtekniske detaljer man skal have styr på. Det er meget værre i et parcelhuskvarter hvor der skal graves.

  • 0
  • 0
#94 Henning Wangerin

GlobalConnect siger eksplicit at man ikke må videresælge netforbindelsen. Tricket med at bruge sit firma og lave et nabo/opgangslaug vil nok kunne flyve under radaren, men ikke desto mindre være at forbryde sig imod købsaftalen.

Ikke hvis I er en forening med formål at give jeres medlemmer en ordentlig forbindelse. Så er det jo netop kun jeres medlemmer som bruger den.

Formålet er ikke at delete forbindelsen. Det må I nemlig ikke.

Det er helt efter bogen. Og det er detaljerne der er afgørende.

Det virker en smule overkill at oprette et cvr nummer med det ene formål.

Måske. Men så behøver det heller ikke at være mere besværligt.

/Henning

  • 0
  • 0
#95 Lars Bjerregaard

Displayet på mit ventilationssystem har i flere år været smådefekt, og helt generelt er det efterhånden kommet dertil, at jeg til alle de kedelige ting (varme, vand, strøm, ventilation osv) foretrækker analoge ting, der ikke går i stykker eller bliver obsolete.

Er jeg mon ved at blive gammel? ;)

Heh, tror der er en vis sammenhæng. Når man når en vis alder så tror jeg tendensen hælder mod "jeg gider ikke det pis mere, skidtet skal bare virke". Man vil ligesom hellere bruge sin kostbare tid på ting der virker mere spændende. Jeg får tit selv lyst til at skrige fra hustaget: "Simpelt, analogt og manuelt er GODT, fat det dog!". Måske har det også noget at gøre med, at som IT mand ved man hvor tæt på et mirakel det er at noget overhovedet virker, og hvor skrøbeligt al hi-tech har tendens til at være. Mit mantra er i hvert fald, at hvis noget relevativt simpelt bare skal virke, så skal det ikke være hi-tech (se også valghandlinger).

  • 3
  • 0
#97 Christian Nobel

En mulig bruger scenarie på 1 gbit kunne være en hjemmeside på ens egen hardware

Det er godt nok lidt af en giftig hjemmeside, hvis det skulle fordre 1Gbps, så nu skal vi altså passe på der ikke går inflation i det.

Jeg kan godt se at for dem der synes gaming er sjovt, så kan det være relevant, men for "almindelige" hjemmesider er det ikke relevant.

Siden har vi fået billeder, video og html/javascript som synes at spise meget.

Billeder kan fylde meget, især hvis dem der "designer" hjemmesiden ikke sørger for at optimere.

Video, afhængig af kvalitet, æder selvfølgelig meget, men html og javascript er altså det rene ingenting.

  • 0
  • 0
Log ind eller Opret konto for at kommentere