Højhastighedsbredbånd storsælger: Men er det overhovedet nødvendigt?

Illustration: Blagoy Nikolaev
Over halvdelen af de danske husstande har i dag et bredbåndsabonnement med mindst 100 Mbit/s. Selvom de færreste familier vil opleve en mærkbar forskel, så stiger salget af højhastighedsforbindelser på mere end 300 Mbit/s også markant.

»Hallo. Der faldt du lige ud. Kan du ikke lige gentage, hvad du sagde?« Den sætning har de fleste af os nok oplevet det seneste år, hvor mængden af videomøder og andre digitale samarbejdsværktøjer er eksploderet på grund af pandemiens mange hjemsendelser.

Det voksende behov for hurtige, stabile bredbåndsforbindelser kan også klart ses i teleselskabernes salg af bredbåndsabonnementer.

Fra første halvår til andet halvår 2020 er antallet af bredbåndsabonnementer med mindst 100 Mbit/s i downloadhastighed steget med 17 pct., hvilket betyder, at 220.000 flere fastnet bredbåndskunder i perioden fik adgang til disse høje hastigheder. I alt havde 58 pct. af bredbåndsabonnementerne adgang til downloadhastigheder på mindst 100 Mbit/s. Det viser nye tal fra Energistyrelsens halvårlige telestatistik for andet halvår 2020.

Stigningen kommer både fra nye fiberforbindelser, og fordi mange har valgt at opgradere et eksisterende abonnement. Antallet af højhastighedsabonnementer på mellem 300 Mbit/s og 500 Mbit/s i downloadhastighed steg særligt kraftigt i andet halvår af 2020. Antallet af bredbåndsabonnementer mellem 300 Mbit/s og 500 Mbit/s blev mere end firedoblet fra første halvår af 2020 til andet halvår af 2020.

»Dette er en væsentlig stigning sammenlignet med de tidligere år, som blandt andet skyldes hastighedsopgraderinger af eksisterende abonnementer,« skriver Energistyrelsen.

Illustration: Energistyrelsen

Læs også: Flaskehalse presser internettet

Tidligere kritik: Teleselskaber oversælger højhastighedsabonnementer

Men selvom datatrafikken vokser markant, så er det langt fra alle dansker, der kan se fidusen i lynhurtige bredbåndsforbindelser og er villige til at betale det ekstra for at få adgang til over 300 Mbit/s.

Mens 94 pct. af boliger og virksomheder i Danmark har adgang til et bredbåndsabonnement med mindst 300 Mbit/s i downloadhastighed, var kun 32 pct. af de solgte abonnementer med denne minimumshastighed, viser tallene fra Energistyrelsen.

Allerede i foråret sidste år – altså få måneder inde i corona-krisen – kunne teleselskaberne melde om øget efterspørgsel på højhastighedsforbindelser på over 300 Mbit/s. Men stikprøvetest af tre forskellige familier, som Ingeniøren gennemførte, viste, at det er næsten umuligt at bruge 100 Mbit/s under normale omstændigheder.

Læs også: Tæt på hver anden husstand betaler for overflødig net-hastighed

Undersøgelsens resultater bakkes op af DTU-professor i netværks­teknologi Lars Dittmann og – overraskende nok – direktørerne for bredbåndsleverandørerne Kviknet og YouSee.

»Min klare vurdering er, at man i dag næppe har brug for mere end 100 Mbit/s som familie. Måske endda mindre,« sagde direktør i Kviknet Yoel Caspersen, der selv har en 30 Mbit-forbindelse derhjemme.

Ifølge Lars Ditt­mann, professor ved DTU Fotonik, er der en lang række forhold, forbrugerne ikke ved om det bredbåndsprodukt, de køber:

»Forbrugerne tænker intuitivt, at en 1.000 Mbit-forbindelse må være 10 gange så god som en 100 Mbit-forbindelse,« fortalte Lars Dittman til Ingeniøren sidste år.

Han illustrerer udfordringen ved at internetselskaberne med de hurtige forbindelser simpelt set sælger et tykt rør de sidste få meter hen til forbrugerne, mens selve internetudbyderen sagtens kan sidde med et tyndt sugerør ud til resten af nettet. Jo mere, de vil forstørre sugerøret for forbrugeren, des mere skal internetudbyderne betale til andre parter i det store, globale internet.

Derfor er den hastighed, du køber, kun én lille del af en lang historie om det pågældende internetprodukt.

Illustration: Energistyrelsen

Teleselskaber investerer massivt

Selvom datatrafikken og antallet af fiberforbindelser vokser, så går det dog den anden vej, når vi ser på omsætningen og antallet af kolleger i telebranchen. De er nemlig for nedadgående.

Tal fra Energistyrelsen viser, at både fastnet, mobil og tv-distribution er faldet, og så er der blevet 2,3 pct. færre ansatte i branchen, så der i 2020 var 13.061 ansatte.

Alligevel er der godt gang i investeringslysten, hvor teleselskabernes samlede investeringer i 2020 lå på over 10 mia. kr., hvilket er 19 pct. mere end året før. Det er særligt væksten i fastnetinvesteringer, som skaber stigningen i de samlede investeringer.

De samlede fastnet investeringer er steget med mere end 26 pct. til 6,6 mia. kr, mens investeringer i 5G og 4G landede på 1,6 mia. kr. svarende til en stigning på over 19 pct. i forhold til 2019.

Dansk Energi: Markedet er præget af konkurrence

Ved indgangen til 2021 var der 861.000 danske fibernet-abonnementer. Energistyrelsens tal indeholder også en temperaturmåling af konkurrencen på bredbånd.

I mange år har TDC’s markedsandel ligget på mere end 50 procent, hvilket har gjort TDC til et af de mest dominerende selskaber blandt de tidligere statsmonopoler i EU. De nye tal fra Energistyrelsen viser, at TDC’s markedsandel er faldet til knap 45 procent, hvilket dog fortsat er højere end EU’s gennemsnit på 40 procent.

»Udviklingen viser, at markedet er meget dynamisk og konkurrencepræget. De seneste år er der indgået omkring 40 kommercielle aftaler mellem energi- og fibernetkoncerner og indholdsleverandører, og de danske forbrugerpriser på fibernet er blandt de laveste i Europa. Vi er derfor noget forundret over Erhvervsstyrelsens betragtning om, at de lokale og regionale fibernetselskaber udgør et konkurrencemæssigt problem og skal underlægges en hel masse regulering fra centralt hold. Vi har simpelthen svært ved at se, hvad det er for et problem, som Erhvervsstyrelsen mener, de løser med øgede regulatoriske byrder for branchen,« siger Christian Berg.

Illustration: Energistyrelsen

Senest har den store energi- og televirksomhed Norlys meldt ud, at de ønsker at åbne op for sit fulde fibernet på nye markeder til kunder, der ikke er andelshavere.

Det skriver Norlys i en pressemeddelelse.

Samtidig med, at Norlys over de næste år færdiggør fiberudrulningen for andelshaverne, er det nu planen at tilbyde sjællændere, fynboere og jyder uden for andelshavernes områder samme adgang til det hurtige fibernet.

»Norlys’ fornemste opgave er at skabe forbindelser mellem mennesker. Derfor har vi en ambitiøs vækstplan om at grave fiber til omtrent 200.000 husstande uden for vores ejergeografi inden udgangen af 2023,« siger Jesper Barslund, COO i Norlys og bestyrelsesformand for Norlys Tele, som omfatter Norlys’ fiberforretning.

Denne artikel har tidligere været bragt på Ingeniøren.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Følg forløbet
Kommentarer (79)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
#1 Jens Jönsson

Vi er derfor noget forundret over Erhvervsstyrelsens betragtning om, at de lokale og regionale fibernetselskaber udgør et konkurrencemæssigt problem og skal underlægges en hel masse regulering fra centralt hold. Vi har simpelthen svært ved at se, hvad det er for et problem, som Erhvervsstyrelsen mener, de løser med øgede regulatoriske byrder for branchen,« siger Christian Berg.

Det er muligt at der er konkurrence fra mobiltbredbånd og fra kabel-TV/xDSL, men fakta er at kigger man fremadrettet, så er der dannet nye monopoler med etableringen af elselskabernes fibernet. F.eks. dominerer Norlys (fusion af SE og EnergiMidt) fuldstændigt midt- og sønderjylland hvad angår fiber. På Vestsjælland og Lolland-Falster, samt øerne er det Andel (SEAS-NVE).

Når TDC stadig har sådan en dominans, er Erhvervsstyrelsen betragtning fremtidigt set, helt korrekt. For hvor længe holder TDC dominans, når xDSL ikke længere er interessant for brugerne ? Selvom der er mange kabel-TV net, så er mange af dem endnu ikke opgraderet til Gigabit hastigheder, og de er også typisk begrænset til by områderne. Spørgsmålet er også, hvor meget coax kommer til at have indflydelse fremadrettet, når f.eks. Norlys (Stofa), selv ønsker at tilbyde fiber og slukke for deres coax-net. En anden snak er så at jeg synes det var et område, som Erhvervsstyrelsen burde kigge på. Det bør ikke være tilladt at lade velfungerende infrastruktur ligge og rådne op i et område, bare fordi man graver fibernet ned (Norlys vil erstatte coax med fiber). Det er ikke sundt for konkurrencen, i min optik bør de coax-net, som Stofa vil udskifte med fiber, tvinges solgt til anden part, sådan at der kan være en reel konkurrence i området.

https://www.berlingske.dk/virksomheder/analytiker-advarer-lukning-af-sto...

  • 6
  • 1
#3 Yoel Caspersen Blogger

At internetforbindelser markedsføres på hastigheden, skyldes primært, at hastigheden historisk set har været den snævreste flaskehals, og at en forøgelse af hastigheden på internetforbindelsen direkte har kunnet omsættes til en bedre oplevelse under brugen af internetforbindelsen.

Det er i høj grad gældende, når man går fra 10 Mbit/s til 100 Mbit/s, men i noget mindre grad, når man går fra 100 Mbit/s til 1.000 Mbit/s.

Når man opgraderer til 1.000 Mbit/s, eliminerer man effektivt internetforbindelsens hastighed som en flaskehals, da max-hastigheden på brugerens lokalnetværk i forvejen er 1.000 Mbit/s, og det efterlader os med to andre flaskehalse:

  • WiFi
  • Netkvaliteten

WiFi bliver jævnligt diskuteret, men netkvaliteten er den oversete parameter, som i bund og grund kan brydes ned i to bestanddele:

  • Pakketab
  • Latency

Pakketab er en naturlig del af ethvert netværk, da pakketab opstår, når kapaciteten på et link er opbrugt. Modtageren vil herefter signalere til afsenderen, at der skal skrues ned for hastigheden, så der ikke sendes mere data ind i netværket, end netværket kan nå at levere til modtageren.

Der er dog stor forskel på typer af pakketab, og det handler primært om, hvordan udbyderen styrer buffers i netværket. Der findes en række strategier til dette, men fælles for dem alle er, at kun de mest primitive strategier er implementeret i den netværkshardware, der driver størstedelen af internettet.

Latency er et vidt begreb, for det handler om forsinkelsen fra server til klient målt i millisekunder. En del af latency er bestemt af simpel geografi og derfor uden mulighed for optimering (fx er der ca. 8 ms fra Skagen til København, uanset hvad man gør), men generelt kan man sige, at latency forstørrer alle øvrige problemer med netkvaliteten - ikke mindst på grund af bandwidth delay-problematikken, som medfører, at kapaciteten på en TCP-forbindelse begrænses af pakketab og latency.

Jeg har i øvrigt selv opgraderet min 30/5 Mbit/s DSL til en 1.000/1.000 Mbit/s fiber sidste efterår. Det er en forbedring på mange parametre, men jeg har stadig dårlig WiFi-dækning på mit badeværelse :)

  • 22
  • 0
#4 Tommy Calstrup

Gad vide om de forskellige selskaber, nogen sinde kommer til, at konkurrere på pingtider?

Det er jo fløjtende ligegyldigt, om du har 20- eller 200 Mbps, hvis dine pingtider er på 4ms eller der over. 20 Mbps med lav pingtid er hurtigere end 200 Mbps med høj pingtid, når der surfes eller games, 1000Mbps med pingtider på over 5 ms er ulideligt langsomt, når der skal åbnes websider, og når fotogalleriet skal uploads til skyen.

Vi er jo nået der til, hvor man kan få internethastigheder, der, på papiret, er hurtigere end din harddisk, hvis det ikke var for de ulideligt høje pingtider, på over 1 ms, så hvornår kommer der konkurrence på de vigtige tal?

  • 0
  • 16
#5 Jan Heisterberg

I mit sommerhus, træ, har jeg fået fibernet og ny router. Det går fint med wifi i badeværelset, men ikke i min yndlingsstol.

Så efter talrige eksperimenter har jeg fundet en anden placering, og tilfældigvis også drejet 90 grader. Vupti, nu begynder de 1.000 Mb/s (mindst mulige) at komme til sin ret - nu er det børnebørnenes yndlingsstol til gaming som lider.

Jeg kvier mig lidt ved at lave et mesh-netværk - i et træhus - for at få rimelig wifi i alle hjørner.

Er jeg den eneste som lider under ringe wifi ?

  • 3
  • 1
#7 Casper Kjeldsen

Har du en god router i 1500-2000 kr klassen? Jeg tænker det måske kan være flaskehalsen at du bruger en standard leverede wifi-router der sikkert er indbygget i fiber-modem? Jeg dækker 250 m2 fuldmuret hus med en ASUS router med 4 antenner, placeret på loftet 1. sal. Måske jeg er heldig med forholdene, eller måske du bare har et et gigantisk sommerhus :-).

  • 1
  • 0
#8 Yoel Caspersen Blogger

Med mindre fiberejerne opfører sig som var de ejere af infrastruktur, og giver fri adgang til at konkurere på deres net, hvilker er hvad store dele af branchen synes at kunne finde ud af.

Ah... det er jeg nu ikke helt enig i. Der findes et par fiberejere, som er rene infrastrukturselskaber. Jeg kan p.t. komme i tanker om følgende:

  • Nord Energi Fibernet
  • Thy-Mors Energi Fibernet
  • OneFiber (GlobalConnect)

De fleste øvrige fiberselskaber har en dobbeltrolle, hvor de gennem deres detailselskaber (Nuuday, Stofa, EWII Bredbånd etc.) i praksis konkurrerer mod deres engroskunder (herunder også andre netejeres detailselskaber).

Hvis man trods alle de gode intentioner fra fiberselskaberne er i tvivl om, hvor sundt det er for konkurrencen på markedet, at fiberselskaberne har dobbelte agendaer, kan man kigge på de sidste 20 års historie på telemarkedet, hvor TDC historisk har haft en meget dominerende stilling trods reguleringen.

Fiberselskabernes åbning af nettene i de senere år er for det første kommet meget sent, og for det andet er det kun sket under truslen om egentlig regulering fra Erhvervsstyrelsens side. Men selv med regulering skal der mere til - Nord Energi og de andre rene infrastrukturselskaber har set lyset, men resten af fiberbranchen er ikke helt nået dertil endnu (dog er enkelte aktører nået længere end andre).

  • 8
  • 0
#9 Jan Ferré

Tommys kommentar er yderst præcis - lave ping-tider er vigtige.

Men som Yoel så rigtigt skriver, så er en del af ping-tiden bestemt af geografi.

Er det f.eks. fedt at spille via en amerikansk server (i Amerika) - så er alene afstanden til USA skyld i pingtider på 200 ms. Så kan man spanke sin teleoperatør til de ikke kan sidde ned længere - de kan ikke ændre på lysets hastighed.

Nogle ting kan der ændres på - f.eks. kapaciteten i leverandørens net. Problemet er naturligvis, at det koster. Og pris er også en relevant konkurrenceparameter. De fleste kommercielle operatører laver et trade-off, hvor de 'for det meste' har kapacitet nok - og dermed kan holde en pris, som kunderne vil betale.

Måske vil det være relevant for Tommy at opstille en lokal spilserver i boligforeningen? Så kan han betale en ny og bedre switch/router/firewall, så de lokale flaskehalse fra lejlighed til server nedbringes. Problemet her er så dels, at det koster Tommy (og de andre spillere i boligforeningen) penge - og det hjælper sådan set ikke de spillere i nabo-boligforeningen, der skal gennem det overbebyrdede offentlige net.

Så at finde et kompromis, der tilfredsstiller alle eller for den sags skyld bare de fleste - det er ikke trivielt.

  • 5
  • 0
#10 Claus Hillker

Mesh er en nem, men ikke særlig effektiv læsning på wifi dækning. De interne forbindelser mellem mesh-enhederne koster både båndbredde og forsinkelse.

Skal wifi fungere ordentligt skal der være kabel til samtige accespoints.

  • 9
  • 0
#11 Yoel Caspersen Blogger

hvis det ikke var for de ulideligt høje pingtider, på over 1 ms, så hvornår kommer der konkurrence på de vigtige tal?

Når vi får ophævet naturlovene?

Jeg ved ikke, hvor i landet du bor, men som sagt er der en del af latency (pingtiden), som man ikke kan gøre noget ved.

De danske internets knudepunkt ligger i praksis i Tåstrup, Ballerup og Glostrup vest for København. Det er her, content-udbydere peerer med danske internetudbydere, så næsten al trafik vil altid skulle den vej. Og der er, uanset hvordan man vender og drejer det, ca. 8 ms. fra Skagen til København pga. den fysiske afstand.

Latency er primært et problem pga. mangel på bufferstyring. Med den rette shaping kan man et stykke hen ad vejen kompensere for latency.

  • 12
  • 0
#12 Gert Madsen

Vi er jo nået der til, hvor man kan få internethastigheder, der, på papiret, er hurtigere end din harddisk, hvis det ikke var for de ulideligt høje pingtider, på over 1 ms, så hvornår kommer der konkurrence på de vigtige tal?

Som Yoel antyder ovenfor, så skal man være opmærksom på at data ikke kan sendes hurtigere end lyset.

Dvs. der går 1 ms pr. 300 km, som der skal sendes over. Derudover samles pakken i hver enhed (router) undervejs. Forsimplet, så er det hele tiden fra første bit afsendes til sidste bit modtages i buffer, pakken valideres, behandles og sendes, hvor tiden for næste enhed begynder.

Det er derfor at Yoel kommer frem til 8 ms fra Kbh. til Skagen.

Der er forskel på pingtider afhængig af type og netværksopbygning til hvor man bor. Men pingtider på 1ms over WAN kommer vi ikke til at se.

  • 10
  • 0
#13 Tommy Calstrup

Jeg fik en live lektion i pingtidernes betydning, for 3 år siden, da boligforeningen skiftede internetleverandør. Tiderne faldt fra 4+ ms til 1 ms, og hold da op hvor det gjorde en forskel på min oplevelse af intenettet. Hjemmesider der åbnede øjeblikkeligt, og ikke skulle vente et par sekunder, på de sidste banner reklamer, før man kunne gå i gang med at læse. Det var som at få en ny PC, eller som da jeg skiftede fra 56K modem, til 128K ADSL. At prisen så også faldt til 1/4 var bare bonus :)

  • 2
  • 11
#14 Per Møller Olsen

Det bliver spændende at se, om markedet rykkes, når StarLink senere på året dækker Danmark ... og når prisen falder (p.t. er det prisat til over kr. 700,- pr. måned).

Til gengæld viser de test, jeg har set/læst, at onkel Elons net kan levere nogenlunde det samme som en coax. I hvert fald rigeligt til almindeligt brug. Og så er det ligegyldigt, om du bor nede af en 10 km lang grusvej på Lars Tyndskids mark (det kan faktisk bare være en fordel).

For mit vedkommende kan StarLink være et godt alternativ til en backupforbindelse, når fiberen er nede (vores mobildækning stinker).

  • 1
  • 0
#15 René Nielsen

Som ”ejer” af en 1 GB fiberforbindelse med 10 GB firewall, mener jeg at det er spildte penge at gå over 100 Mb.

Jeg har selv 1GB men realiteten er den sidste båndbredde fra 100 MB til 1GB er spildte penge. For det er ikke ret tit at den båndbredde bliver udnyttet, da udbydere alligevel ”capper” farten ved omkring 250 MB (altså Apple, Microsoft mv.).

Bevares Sony PlayStation kan godt trække op til 850 MB om morgenen, men hvis ikke du kører GB tunge backups eller lignende, så er det ikke pengene værd at betale ekstra.

Det som kan retfærdiggøre en fiberforbindelse i stedet for noget kabel som f.eks. ADSL er højere stabilitet. For det sgu træls når forbindelsen ryger kortvarigt med ADSL og du kan starte forfra på det du arbejdede med.

Det er langt vigtigere at du har en rigtig IP og ikke deler den med andre, da du jo ikke selv bestemmer hvilken port din hjemmearbejdsplads benytter til VPN-forbindelsen. Denne lidt oversete detalje er skyld i meget besvær med VPN under COVID-19 nedlukningen

Du bestemmer heller ikke selv din peering til din arbejdsplads eller dine services som backup.

Mange ISP’ere forsøger at holde trafikken i ”eget net” så længe så muligt og kan godt finde på at sende al trafikken via en udenlandsk peering aftale for på den måde at spare et par ører pr. GB. Jeg har set hvordan Stofa for nogle år siden sendte dansk trafik til USA og retur for på denne måde at spare penge.

I realiteten er du som forbruger ”solgt til stanglakrids” for du ved ikke hvad du får, før du har fået det. Hvad er det værd med 1.000 km/t ned til motorvejen, hvis den motorvej ISP’en tilbyder svarer til hastigheden i London Rush-hour (5-10 mph)?

  • 2
  • 1
#16 Jan Juul Mortensen

Har fiber fra nef.dk og skiftede fra 200/200 til 1000/1000 Mbit/s. Tidligere havde jeg 120/50 og 300/50 Mbit/s fra Stofa over Coax.

Fiber byder på en væsentlig forbedring i latency og en bedre oplevelse også med henblik på stabilitet.

Men skiftet til 1000/1000 Mbit/s giver bare følelsen af at al trafik bare glider bedre også på det interne netværk. Har en række MESH enheder (7 punkter) koblet op og hovedparten er med kablet backhaul, kun et punkt har jeg ikke fået trukket kabel til endnu, men det bliver givet gjort omend det er lidt vanskeligt.

Dækningen er god også på de enkelte toiletter, i opholdsrummene og i soveværelserne. Tommelfingerreglen har været et punkt i hvert andet rum.

  • 0
  • 0
#19 Malthe Høj-Sunesen

20 Mbps med lav pingtid er hurtigere end 200 Mbps med høj pingtid, når der surfes eller games, 1000Mbps med pingtider på over 5 ms er ulideligt langsomt, når der skal åbnes websider, og når fotogalleriet skal uploads til skyen.

Min ping til version2.dk er på ca. 11 ms. Microsoft.com er på ca. 15 ms. Akamai.com rammer ca. 13 ms. Både Microsoft.com og Akamai svarer fra akamaiedge.com, men fra to forskellige noder.

Hvis jeg henter SSMS fra Microsoft (642 MB) bliver den hentet på ca. 8 sekunder. Det giver en downloadhastighed på 642 Mbps. Jeg betaler for 1 Gbps. Jeg har kablet op med Cat 6 og indkøbet særskilt router og switch så udbyder modem skal lave så lidt som muligt - og finurligt nok kan udbyders egen hastighedstest ikke komme lige så højt op (den topper på 440 Mbps). Generelt er problemet med 1 Gbps at destinationerne sjældent kan følge med; Ubuntu giver f.eks. 25 Mbps.

Når du siger at ping-tiden betyder så meget, så er det helt korrekt - hvis altså TCP var synkront og serielt. Men TCP er asynkront og kan sagtens vente på at få et svar. Se f.eks. IPoAC eller snowmobile for eksempler på dataoverførsler som har ekstremt høj latency, men hvor throughput er helt uafhængig af latency. Afsender sender med andre ord sine TCP-pakker som afsenderen lyster og forventer så et svar på et tidspunkt.

Ping-tiden betyder meget mere for her-og-nu-aktioner (f.eks. online spil) end at browse og se film/serier online. Up- og download er så godt som ligeglade med ping-tiden; det render nedenunder og passer sig selv. Dit throughput (hastighed) er grundlæggende afkoblet fra din latency (ping).

Jeg tror i højere grad du har været ramt af dårlig hardware end "lange" pingtider. Hvis DNS svarer langsomt er det ligegyldigt om du har hurtig download, og absurd svært at bevise. Jeg oplevede at min tidligere udbyders modem fik et problem med DNS og jeg havde svartider på over 4 sekunder - for hver adresse som skulle oversættes. Dét var ulideligt. Heldigvis havde jeg en boks fra SamKnows som kunne påvise en pludselig og ekstrem forøgelse i DNS-tid, men det krævede stadig 3 telefonopkald og skærmprint før udbyder sendte en ny router - routeren kunne fint pinges og throughput var også som forventet, så det så ikke ud til at noget var galt.

Bemærk i øvrigt at du skal måle ping til din destination, ikke til din router eller ISPens gateway. Hvis din ping er 1 ms, så måler du generelt indenfor lokalnetværket. Hvis din ping er 3 ms så er din destination op til 500 miles væk. Og hvis du pinger skal du huske på, at ICMP af de fleste carriers ikke prioriteres specielt højt og godt kan få lov til at vente i bunden af en kø.

  • 2
  • 0
#21 mikkel Holm

For mig er snakken om hastighed efterhånden forældet tankegang. Det gav mening, dengang forbindelserne ikke var store - men i dag hvor vi er ved at være oppe på 1Gbit, som den typiske husholdning har - vil jeg hellere tale om tilgængelighed. Og med tilgængelighed som præmis, giver det god mening at have en høj forbindelse. Forbindelsen bruges måske ikke 99,9 procent af tiden, men den 0,1 procent, er det lækkert ikke at skulle vente og være begrænset. Derfor kan jeg godt li' når en ISP tilbyder en enkelt høj forbindelse. Det giver for mig den bedste mening.

Som Yoel er inde på, burde fokus i højere grad være på kvaliteten af forbindelsen. Herunder latency, routing, stabilitet og wifi. Jeg er selv på en coax 1Gbit, og må konstatere at kvaliteten er særdeles ringe og ustabil.

Det er langt vigtigere at du har en rigtig IP og ikke deler den med andre, da du jo ikke selv bestemmer hvilken port din hjemmearbejdsplads benytter til VPN-forbindelsen. Denne lidt oversete detalje er skyld i meget besvær med VPN under COVID-19 nedlukningen

Jeg bliver lidt nysgerrig, for har ikke før hørt om krav til åbning af egne porte, for at kunne nå sin arbejdsgiveren. Hvad er det for et setup i køre med?

  • 3
  • 0
#22 Maciej Szeliga

Er jeg den eneste som lider under ringe wifi ?

Der er ikke noget som hedder "ringe WiFi"!

Det hele skyldes:

  1. oversolgte AP'ere/routere
  2. fysik - radiobølger er underlagt fysikkens love
  3. manglende viden om bygningen

Du SKAL have minimum et AP pr. rum hvis du vil have 100% ydelse og de SKAL være kabelforbundne - det er så helt op til dig om du vil have 100% ydelse i alle rum.

Du skal vide hvad der er i væggene for der er mange steder man har brugt aluminiumsfolie under træ eller gips.

  • 4
  • 2
#26 Rune Hansen

Er enig med Rene. Kør PS4/5 uden om VPN i firewallen så har sønnike ikke noget at brokke sig over. Og køb en ordentlig firewall med aes-ni og i7 CPU helst 8565U men 7500U kan nok også gøre det til 500 Mbit (så hvis der er flere devices, er der ikke noget mærkbart) firewalls i dette niveau kan fåes til 4-7k.

  • 0
  • 0
#28 Morten Brørup

Det voksende behov for hurtige, stabile bredbåndsforbindelser kan også klart ses i teleselskabernes salg af bredbåndsabonnementer.

Desværre findes ingen statistik for salget af stabile bredbåndsforbindelser. Der indsamles og offentliggøres alene statistik for typen af forbindelse og evt. båndbredden, men ikke noget om forskellige kvalitetsparametre som fx stabilitet i form af oppetid og udfald på forbindelsen.

Båndbredde, pakketab, latency, wifi-dækning og øvrige parametre er irrelevante, hvis forbindelsen er nede.

Med hensyn til netkvalitet, herunder stabilitet (oppetid), kan man kun købe katten i sækken - ingen danske internetudbydere offentliggør sammenlignelige tal for andet end båndbredden og prisen på deres produkter.

I 2012 holdt IDA Connect en fremragende konference om internetkvalitet. Her kom det bl.a. frem, at en svensk internetudbyder havde haft stor succes med at markedsføre sig på kvalitet frem for kvantitet (båndbredde). Selvom det er ni år siden, har ingen Danske internetudbydere forsøgt sig med det endnu.

mvh

Morten Brørup

CTO, SmartShare Systems

  • 2
  • 0
#29 Morten Brørup

Latency er primært et problem pga. mangel på bufferstyring. Med den rette shaping kan man et stykke hen ad vejen kompensere for latency.

Som udvikler af WAN-optimeringsprodukter kan jeg bekræfte, at latency i meget høj grad kan reduceres, hvis man ønsker det. Men da de fleste internetudbydere og deres kunder alene fokuserer på pris per båndbredde, er det de færreste, der bruger penge på det.

Selvfølgelig er der undtagelser fra reglen. Nogle få kommunikations- og internetudbydere har også fokus på kvalitet (herunder latency), og vi har i mange år udviklet og solgt produkter til at dække dette behov. Faktisk er vi netop nu ved at lægge sidste hånd på en forbedring af vores produkt til CSP'er (Communications Service Providers), der minimerer latency yderligere ved at styre buffering helt ned på flow-niveau, hvor det hidtil har styret buffering og QoS på bruger-niveau. Om få uger er der bl.a. en stor ungdomsboligforening lidt udenfor København, der får glæde af dette.

Flow-styring er iøvrigt ikke nyt. I 2007 forsøgte nogle af de mennesker, der opfandt internettet, at lancere en "flow router". De fik desværre ikke succes med det. Jeg gætter på, at den underliggende teknologi ikke var moden nok dengang, hvilket gjorde deres produkter alt for dyre. Til sammenligning kan jeg nævne, at Cisco for nylig demonstrerede en software-baseret router med Intel Xeon CPU'er, der kan håndtere 1 Tbit/s.

mvh

Morten Brørup

CTO, SmartShare Systems

  • 0
  • 0
#31 Baldur Norddahl

Når du siger at ping-tiden betyder så meget, så er det helt korrekt - hvis altså TCP var synkront og serielt. Men TCP er asynkront og kan sagtens vente på at få et svar. Se f.eks. IPoAC eller snowmobile for eksempler på dataoverførsler som har ekstremt høj latency, men hvor throughput er helt uafhængig af latency. Afsender sender med andre ord sine TCP-pakker som afsenderen lyster og forventer så et svar på et tidspunkt.

Latency har faktisk meget stor betydning for din maksimale downloadhastighed med TCP og er hovedårsagen til at du sjældent kan opnå høje hastigheder til servere der ligger langt væk.

Problemet er særligt når du har en relativ hurtig forbindelse på 1 Gbps og serveren kan sende med 10 Gbps. Den almindelige implementation af TCP pacer ikke pakkerne når de sendes. Den sender ikke pakkerne enkeltvis med passende mellemrum, så det passer med din linjehastighed. I stedet sender den en masse pakker på én gang med 10 Gbps og ender med at fylde en buffer hos din udbyder, der afleverer pakkerne til dig med 1 Gbps. Antal pakker der sendes afgøres af en parameter kaldet window size. Window size styres af latency og hastighed, således at højere latency og højere hastighed giver proportionel større window size. Hvis window size bliver større end udbyderens buffers, så får du pakketab. TCP reagere ved at skrue ned for hastigheden og window indtil at der ikke er pakketab.

Slå også op under bandwidth delay product.

Og på den måde er din maksimale TCP download styret af udbyderens bufferstørrelse og latency.

  • 3
  • 0
#34 Henrik Dalsager

Vi skulle regne netværkshastigheder ud dengang jeg læste, og vi blev bedt om at vurdere forskellige transmissionsledninger.

Dengang var benchmarken en hund, eller en due, med en cd. (Afstand, løbe hastighed, skrive og læsehastighed på drev)

Er det vigtigt at få vist filmen til tiden, eller at se de første par billeder hurtigt så du kan vurdere kvaliteten, og evt annullere overførslen.

Det er nok de færreste kunder der forstår latency, men der er godt nok heller ikke gerne der forstår båndbredde, så tænker man burde benchmarke den oplevede kvalitet fra en adresse til diverse services.

Netflix til båndbredde Stadium eller live fodboldkamp til latency og udfald, målt henover mindst en uge for at se spidsbelastning fra andre brugere og en fin trafiklys graf

  • 0
  • 0
#35 Rasmus Nielsen

Båndbredde, pakketab, latency, wifi-dækning og øvrige parametre er irrelevante, hvis forbindelsen er nede.

Helt enig. Når man står med en ustabil forbindelse hvor man i snit hver anden måned må undvære bredbånd i halve, hele eller flere døgn bliver oppetid pludselig den væsentligste parameter. Det er frustrerende, at der ikke er mere fokus på dette.

  • 2
  • 0
#36 Christian Nobel

Men TCP er asynkront

Bare lige en kommentar - man kan altså ikke tale om hvorvidt TCP er synkront eller asynkront, da det har noget med clockning at gøre, ikke hvad der sker på transportlaget.

TCP er connection orientet, dvs. at der (normalt, typisk) skal være et acknowledgement for hver pakke der sendes - UDP er til gengæld connectionless, så der kan pølses pakker ud i en lind strøm, det er så op til programmet at håndtere flowkontrollen.

  • 4
  • 0
#37 Christian Nobel

Du SKAL have minimum et AP pr. rum hvis du vil have 100% ydelse og de SKAL være kabelforbundne - det er så helt op til dig om du vil have 100% ydelse i alle rum.

I så fald, så skal det være 5GHz AP's, ellers har du den perfekte opskrift på en katastrofe.

Og selv med brug af 5GHz AP's kan det være i overkanten og kontraproduktivt, hvis man ikke er meget obs på kanalfordeling.

  • 3
  • 0
#38 Morten Brørup

Dejligt med lidt mere indsigt. Jeg er dog nysgerrig inden for hvilke rammer den forbedret latency gælder?

Latency kan forbedres på flere forskellige måder.

Quality of Service

Den almindeligt kendte metode er klassisk QoS (Quality of Service). Pakkerne til en abonnent bliver modtaget i en stor pærevælling, og Voice-pakker sorteres fra og kommer i sin egen kø, hvorfra pakkerne videresendes før pakkerne i den almindelige kø. Dermed forbedres latency på Voice-pakkerne, fordi de ikke skal stå i samme kø som Data-pakkerne. Det minder om hurtigkassen i supermarkedet. Hvis man har max 5 varer, kan man gå udenom den almindelige kassekø og blive betjent i hurtigkassen i stedet. Så går der mindre tid med at komme gennem kasselinjerne, dvs. latency bliver lavere.

Dette kan udvides til at omfatte andet end Voice-pakker, fx kan man arbejde med en kø per lejlighed i en boligforening - selvom en storforbruger har en masse pakker stående i kø, vil pakker til en anden lejlighed komme i sin egen kø, og ikke skulle vente i kø bag storforbrugerens pakker.

Man kan også gøre det per flow, så pakker til et "tyndt" flow ikke skal vente i kø bag pakker til et "tykt" flow.

Fusk med Congestion Control

Den mindre kendte metode går ud på at manipulere med feedback-sløjfen i transportprotokollens "congestion control"-algoritme. Transportprotokollerne (fx TCP) er designet til at levere maksimal båndbredde og måler på bl.a. RTT (Round Trip Time, altså ping-tiden) og pakketab for at opnå dette. Ved at manipulere med trafikken undervejs, kan man ændre feedback-signalerne til afsenderen, og dermed narre afsenderen til at skrue op eller ned for sin sende-båndbredde. Man kan fx narre den til ikke at fylde så mange pakker i køen, og dermed står pakkerne kortere tid i kø, dvs. latency bliver lavere.

Google har udgivet en relativt letlæselig præsentation om Congestion Control, der viser et godt eksempel på, hvordan man kan optimere kø-styringen for at opnå lavere latency: BBR Congestion Control

Denne manipulation kan foretages hvor som helst i netværket. Det behøver ikke at være hos ISP'en.

Proxy (Cache og PEP)

Man kan også benytte forskellige typer proxies for at reducere både båndbreddeforbruget og svartiden.

Med tiden har udbredelsen af kryptering gjort det praktisk talt umuligt at benytte caching proxies til web-trafik, så det er ikke udbredt mere.

Derimod har de fleste routere, som ISP'erne udleverer til deres abonnenter, også en DNS Proxy med cache, som kan reducere svartiden på DNS-opslag, når der er flere brugere hos abonnenten, der nogenlunde samtidigt benytter de samme online-tjenester.

En Caching Proxy kan benyttes både hos ISP'en og hos abonnenten.

På satellit-forbindelser kan man fortsat benytte en TCP PEP (Performance Enhancing Proxy), som bl.a. er beskrevet i RFC 3135.

En TCP PEP har størst effekt, når den er installeret hos abonnenten.

Hvis modtager ISP ikke priotere latency, får brugeren ingen glæde ud af forbedringen?

Fremragende spørgsmål!

Quality of Service hos modtageren

Klassisk QoS har ganske rigtigt den forudsætning, at båndbreddestyringen foretages et sted i netværket, hvor pakkerne modtages med højere båndbredde, end de videresendes med. Fx hos en ISP, der modtager pakkerne via en 10 Gbit/s transit-/peering-forbindelse, og videresender til en abonnent på en 1 Gbit/s-forbindelse. Her vil pakkerne blive modtaget i mikro-bursts med 10 Gbit/s og hobe sig op i en kø, hvorfra de bliver videresendt en ad gangen ved 1 Gbit/s - og hvis der modtages en Voice-pakke, vil den straks blive sendt videre til abonnenten, udenom de Data-pakker, der ellers står i kø for at blive videresendt.

Hvis pakkerne derimod modtages på en forbindelse med samme eller lavere båndbredde, end den forbindelse, pakkerne videresendes på, bliver der jo ikke ophobet en kø af pakker, og dermed er der ingen mulighed for at springe over i køen - og så har QoS naturligvis ingen effekt.

Men for ca. 15 år fandt vi på noget smart, og fik nogle patenter (bl.a. EP1880514) på at styre båndbredden hos brugeren/abonnenten ved at emulere forudsætningen for at foretage båndbreddestyringen ved en flaskehals i netværket. Og dermed kan vores produkter også gøre det helt ude hos brugeren/abonnenten, hvor forbindelsen fra ISP'en har samme eller lavere båndbredde end abonnentens interne netværk.

mvh

Morten Brørup

CTO, SmartShare Systems

  • 2
  • 0
#39 Jakob Pommergaard

Der hvor jeg bor, vel nok ude på landet, har vi fibernet med 100Mbit på download, på et netværkskabel ind i PC´en. Det er fint. På wifi kommer hastigheden" helt" op på 30-40 stykker. Vi cromecaster fra alle mulige streaming aps uden nogen som helst problemer. Det er så ligegyldigt om vi er ovenpå i soveværelset eller nede på lo!!!!!/ badeværelset. Jeg husker for ikke så mange år siden havde vi 50 Mbit ind i huset via antenneforeningens kabel Coax? Dengang havde vi heller ikke problemer med cromecast eller udfald på mobilen. 50 Mbit er alt rigeligt for telefon og cast. Men kan man få et abonnement på den størrelse? Ja gennem telefonstikket til 249 pr. md. Stort set det samme som 300 Mbit med fiber. Helt klart at udbyderne kun ønsker at sælge noget vi ikke har brug for.

  • 0
  • 0
#40 Maciej Szeliga
  • 1
  • 1
#42 Niels C Nielsen

2015: Adgang til en veludviklet og tidssvarende digital infrastruktur er en forudsætning for, at vi kan udnytte de nye digitale muligheder. Regeringens mål er, at alle husstande og virksomheder skal have adgang til bredbånd med hastigheder på mindst 100 Mbit/s download og 30 Mbit/s upload senest i 2020, og at der skal være god adgang til mobiltelefoni i Danmark.

2021: Knapt 60 % af danske abonnementer har internethastigheder på 100 Mbit/s eller mere, mens udbyderne primært konkurerer på højere hastigheder i områder, hvor målet allerede er opfyldt?

Hvordan (og hvornår) kan alle være med? Det er ikke kun langt ude på landet men også områder i større byer, hvor man ikke kan abonnere på en forbindelse på mindst (og ikke bare op til) 100 Mbit/s.

  • 3
  • 0
#43 Maciej Szeliga

100% ydelse vil betyde, at løsningen vil komme til at omfatte faraday isolering mellem de enkelte rum, og ja det koster, men er selvfølgelig en mulighed.

Som jeg nævnte så er mange huse fra 60'erne og 70'erne udstyret med alufolie i væggene - nogle kun i ydervæggen andre i alle og nogen i lofterne (det sidste gælder f.eks. mig: jeg har 0 signal på loftet fra et AP som er 1m væk) det er næsten som et faraday bur - det er armeret beton også. Desuden kan man skrue ned for sendestyrken på 2,4GHz for at undgå interferens og så har vi fire frekvenser at gøre godt med 1,5,9,13 så man kan faktisk dække et parcelhus uden større interferensproblemer - uden at det går ud over ydelsen i det rum AP'en er i. Lejligheder er en hel andet problem og man kan ikke løse problemet for det vil kræve at de nærmeste naboer samarbejder om en løsning.

I kan naturligvis godt prøve at overbevise mig om at i kan bøje radiobølger rundt om et hjørne - hvilket er lige så langt væk fra fysikkens love.

I kan også starte med at forklare mig hvordan der hos Microsoft i Lyngby i det store mødelokale i stuen kan være 8 AP'ere uden problemer - ja det er på små 200m2 men der er altså ikke mere end 5m mellem AP'erne - nej, det kan tydeligvis ikke gøres.

Det kan godt være at det kræver lidt dyrere anlæg og lidt opsætning men så øffer man ikke over "dårlig WiFi".

  • 0
  • 1
#44 Torben Rune

... på 2,4GHz for at undgå interferens og så har vi fire frekvenser at gøre godt med 1,5,9,13 så man kan faktisk dække et parcelhus uden større interferensproblemer - uden at det går ud over ydelsen i det rum AP'en er i.

Det forudsætter at de kun benytter et spektrum på 20 MHz, og det giver maksimalt 802.11g, dvs. 54 MBit/s til deling for up- og downlink, dvs. i praklsis maksimalt ca. 28 MBit/s, til deling mellem enheder under samme AP. Og du skal bruge kanalerne 1, 6 og 11.

I kan også starte med at forklare mig hvordan der hos Microsoft i Lyngby i det store mødelokale i stuen kan være 8 AP'ere uden problemer - ja det er på små 200m2 men der er altså ikke mere end 5m mellem AP'erne - nej, det kan tydeligvis ikke gøres.

Forklaringen kommer her: I 5 GHz er der netop plads til 8 kanaler á 20 MHz spektrum. Det er kanal nummer 36, 40, 44, 48, 52, 56 ,60 og 64. Hvis man tager bånd B i drift også får man yderligere 8 stk. 20 MHz kanaler på kanalnumrene 100, 104, 108, 112, 116, 132, 136 og 140. Men på 802.11a får man stort set de samme båndbredder ud af det som på 802.11g.

Når vi taler højhastighedsbredbånd skal du op i 802.11n hvor du på 2,4 GHz kan nå ca. 300 MB/s delt (dvs. 150 MB/s), og på 5 GHz når man 900 MB/s dvs. c a 450 MB/s i hver retning.

Skal du have rigtig bredbånd så sker det med 802.11ac, som i praksis når 1 GB/s. Eller du kan hoppe på WiFi6 eller WiFi6E på 802.11ax og komme op på 7 GB/s eller der omkring.

  • 2
  • 0
#45 Baldur Norddahl

Jeg synes vi mangler den vinkel, at flere AP godt kan sameksistere på samme kanal. Også selvom de er tæt på hinanden og har overlapende dækningsområde. I wifi 6 har man netop arbejdet med at forbedre deling af overlappende spektrum.

En af de nye features i wifi 6 er "Spatial frequency reuse". Det tillader to klienter, der er knyttet til forskellige baser, at sende samtidig selvom det er på samme kanal.

Men selv ældre wifi kan til en vis grad godt sameksistere på samme kanal. Lad os betragte den simple case hvis vi har to værelser, hver med et AP og en enkelt laptop vi flytter mellem værelserne. Uden et ekstra AP så kan der være dårligt wifi i det ene værelse. Med to AP kan laptoppen skifte AP og opnå fuld hastighed i begge værelser. Den AP der ender med at være idle vil ikke i udpreget grad forstyrre.

Går vi videre og betragter en lidt mere avanceret case med flere klienter, eksempelvis to laptops, én i hvert værelse og tilnyttet hvert deres AP og begge i gang med at downloade en stor fil. Så længe de to AP kan høre hinanden, så vil kollisionsavoidance fungerer rimeligt og man opnår højere samlet hastighed end hvis der kun var ét AP.

Man skal også huske at wifi klienter generelt kan høre et AP og andre klienter længere væk end samme klient kan opnå god hastighed. Hvis wifi netværket som sådan rækker men med dårlig hastighed, så burde man kunne forbedre det ved at sætte flere APs op på samme frekvens.

Det sidste jeg vil sige, er at klienterne nogle gange er dårlige til at vælge AP. Selv hvis man har gjort ovenstående eller har APs fordelt ud på frekvenser, så kan du have klienter der hænger fast i det helt forkerte AP. Klienterne kan også være relativt længe om at skifte AP med pakketab til følge. Det er der et sæt 802.11 standarder der forbedrer men kun få AP/routere supporterer dem.

  • 1
  • 0
#46 Torben Rune

Det er der et sæt 802.11 standarder der forbedrer men kun få AP/routere supporterer dem.

Det er 802.11k/v/r der tænkes på her. Både AP og klient skal understøtte "fast roaming" for at få det til at virke - men gør de det, virker det rent faktisk udmærket.

Med hensyn til Wi-Fi 6 spatial reuse udgav Cisco sidste år et white paper om emnet: https://www.cisco.com/c/en/us/products/collateral/wireless/white-paper-c...

Det indeholder også en meget grundig forklaring på hvordan 802.11 kanaldelings mekanismerne virker generelt.

I Wifi 5, 6 og 6E har man desuden DFS (Dynamic Frequency Selection) at tage hensyn til. Her checker AP for tilstedeværelsen af radar- og andre signaler på bestemte kanaler. Det er der en artikel om her: http://wifinigel.blogspot.com/2018/05/the-5ghz-problem-for-wi-fi-network...

  • 2
  • 0
#47 Christian Nobel

Som jeg nævnte så er mange huse fra 60'erne og 70'erne udstyret med alufolie i væggene - nogle kun i ydervæggen andre i alle og nogen i lofterne

Hvis vi taler om dampspærre i loftet, så er det mod uisoleret tagrum (ellers er der noget helt galt), så måske ikke det mest oplagte sted at placere et AP.

Desuden kan man skrue ned for sendestyrken på 2,4GHz for at undgå interferens

Det er kun halvdelen af historien, for du glemmer (som så mange andre også gør) hele randzoneproblematikken - der et intet styr på hvad klienterne kan finde på at gøre.

Lejligheder er en hel andet problem og man kan ikke løse problemet for det vil kræve at de nærmeste naboer samarbejder om en løsning.

Har du prøvet at se spektrummet i urbane områder - det er kaos.

I kan naturligvis godt prøve at overbevise mig om at i kan bøje radiobølger rundt om et hjørne

Hvad er det lige for en stråmand - det er sådan set omvendt, nemlig at træerne gror altså ikke ind i himlen når vi taler delte radiobårne medier.

I kan også starte med at forklare mig hvordan der hos Microsoft i Lyngby i det store mødelokale i stuen kan være 8 AP'ere uden problemer - ja det er på små 200m2 men der er altså ikke mere end 5m mellem AP'erne - nej, det kan tydeligvis ikke gøres.

Jo det kan sagtens gøres, på 5GHz som Torben siger.

Det kan godt være at det kræver lidt dyrere anlæg og lidt opsætning men så øffer man ikke over "dårlig WiFi".

Det vigtigste er at vide hvad man laver, hvilket der desværre ikke er ret mange der gør.

  • 1
  • 0
#48 Christian Nobel

Men selv ældre wifi kan til en vis grad godt sameksistere på samme kanal. Lad os betragte den simple case hvis vi har to værelser, hver med et AP og en enkelt laptop vi flytter mellem værelserne. Uden et ekstra AP så kan der være dårligt wifi i det ene værelse. Med to AP kan laptoppen skifte AP og opnå fuld hastighed i begge værelser. Den AP der ender med at være idle vil ikke i udpreget grad forstyrre.

Men hvis du har mere end en klient, så begynder problemerne med den model.

Går vi videre og betragter en lidt mere avanceret case med flere klienter, eksempelvis to laptops, én i hvert værelse og tilnyttet hvert deres AP og begge i gang med at downloade en stor fil. Så længe de to AP kan høre hinanden, så vil kollisionsavoidance fungerer rimeligt og man opnår højere samlet hastighed end hvis der kun var ét AP.

Hvordan i alverden skulle dette kunne lade sig gøre på samme kanal?

Man skal også huske at wifi klienter generelt kan høre et AP og andre klienter længere væk end samme klient kan opnå god hastighed.

Hvorved man risikerer at en klient hænger i neglene, og trækker det hele ned.

Hvis wifi netværket som sådan rækker men med dårlig hastighed, så burde man kunne forbedre det ved at sætte flere APs op på samme frekvens.

Måske på WiFi 6, men ellers er det et ligeså dårligt råd som at anbefale folk at bruge WiFi extenders.

Det sidste jeg vil sige, er at klienterne nogle gange er dårlige til at vælge AP. Selv hvis man har gjort ovenstående eller har APs fordelt ud på frekvenser, så kan du have klienter der hænger fast i det helt forkerte AP. Klienterne kan også være relativt længe om at skifte AP med pakketab til følge. Det er der et sæt 802.11 standarder der forbedrer men kun få AP/routere supporterer dem.

Klienten er altid det svageste led som kan sabotere selv de bedste intentioner.

  • 0
  • 1
#49 Baldur Norddahl

Hvordan i alverden skulle dette kunne lade sig gøre på samme kanal?

Kan du uddybe hvad du mener at problemet er? De to AP sender på skift, de sender begge med høj bitrate og udnytter dermed æteren godt, og de forstyrre ikke hinanden.

Modsat med kun ét AP og resulterende dårlig dækning og langsom bitrate til klienten i det fjerne rum. Det udnytter æteren dårligt og frekvensen er optaget i længere tid hvor der sendes med lav bitrate.

  • 1
  • 0
#50 Torben Rune

Kan du uddybe hvad du mener at problemet er? De to AP sender på skift, de sender begge med høj bitrate og udnytter dermed æteren godt, og de forstyrre ikke hinanden.

APer sender kun på skift hvis de kan høre hinanden. Hvis ikke sender de bare. Med en AP i hvert rum, og med klienter spredt ud i rummene, vil der være en vis sandsynlighed for, at klienterne hører mere end et AP på samme kanal, og derved ødelægges performance.

  • 1
  • 1
#51 Baldur Norddahl

APer sender kun på skift hvis de kan høre hinanden. Hvis ikke sender de bare. Med en AP i hvert rum, og med klienter spredt ud i rummene, vil der være en vis sandsynlighed for, at klienterne hører mere end et AP på samme kanal, og derved ødelægges performance.

Så selv om APerne ikke forstyrrer hinanden, så forstyrrer de klienterne.

Nu skrev jeg eksplicit at AP'erne kan høre hinanden i det tænkte ét-kanals setup. Dermed sender de på skift. Cisco beskriver det faktisk i det whitepaper du linker til:

"PD protects the radios from getting too close and ensures fair, interference-free access to the channel when they do (they will take turns)"

Det er klart at det virker bedre med download end upload. Så er det heldigt at klienter generelt downloader 10 gange mere end de uploader. Der er dog også en mekanisme der hjælper på upload: klienten sender request to send, basen svarer med en clear to send og det hører den anden base.

Derudover, hvis vi taler om en lejlighed eller villa, hvor wifi netværket faktisk dækker men bare dårligt, så vil alle klienterne høre PD også fra de klienter, der er langt væk.

  • 1
  • 1
#52 Torben Rune

Nu skrev jeg eksplicit at AP'erne kan høre hinanden i det tænkte ét-kanals setup. Dermed sender de på skift.

Det er jeg med på, men hvis de hører hinanden, og sender på skift, så vil det jo i sig selv give en performance nedgang. Dermed kan performance umuligt blive den samme, som hvis de to APer var på hver sin kanal.

Upload vil også være påvirket, da de klienter som er knyttet til det AP som trækker sig, ikke kan sende så længe nabo APet sender. Samlet vil det - unaset hvad - være en bedre løsning være at udlægge kanalerne forskelligt.

  • 2
  • 0
#53 Baldur Norddahl

Dermed kan performance umuligt blive den samme, som hvis de to APer var på hver sin kanal.

Det er hellere ikke det jeg siger. Naturligvis vil det være bedre hvis de to AP'er kunne fungere uafhængigt. Men hvad nu hvis der er ikke er nok kanaler, eksempelvis på 2,4 GHz. Det får nogen til at tro, at det er bedre at begrænse antallet af AP'er.

Derfor er det vigtigt at forstå, at AP'er kan samarbejde om en frekvens. Jeg tror i det hele taget at der er mange misforståelse omkring hvordan wifi bliver overfyldt og forstyrret. I min optik er en af de helt store katastrofer at man kan indstille wifi på "skæve" kanaler. Der burde kun være 3 (eller 4) mulige indstillinger på 2,4 GHz. AP samarbejder kun hvis de kan dekode preample fra fremmede pakker. Det fungerer ikke hvis du er på kanal 1 og den anden er på kanal 2, selvom de to kanaler overlapper så meget at det praktisk talt er samme kanal.

  • 1
  • 1
#54 Torben Rune

I min optik er en af de helt store katastrofer at man kan indstille wifi på "skæve" kanaler.

Ja, det er jeg enig i. Hele kanal inddelingen i spektre af 5 MHz er bøvlet at have med at gøre, og giver netop som du skriver, anledning til en masse misforståelser.

Rigtig bøvlet blibver det så, hvis man blander de forskellige standarder, såman bruger både 20 MHz og 40 MHz spektre i det samme dækningsområde. Det er næsten dømt til at gå galt.

  • 1
  • 0
#55 Baldur Norddahl

For lige at komme med et eksempel som alle kan forholde sig til. Vi har et hus, langt ude på landet med 10 km til nærmeste nabo. Der er fire stueværelser, ét i hvert hjørne af huset. Vi ønsker at etablere et 2,4 GHz wifi netværk og bruge kanal 1, 6 og 11. For maksimal dækning sætter vi et AP per værelse.

Nu er det klart at der er et problem. Et af værelserne skal enten undvære et AP eller dele kanal med et af de andre værelser. Hvilken mulighed er den bedste?

Jeg mener at have fremlagt hvorfor det er bedst at have fire AP i stedet for at lade et værelse være uden AP.

  • 1
  • 1
#56 Christian Nobel

I min optik er en af de helt store katastrofer at man kan indstille wifi på "skæve" kanaler. Der burde kun være 3 (eller 4) mulige indstillinger på 2,4 GHz.

Det kan du sagtens gøre, du skal bare tilsikre dig at "de andre skæve" er under støjgulvet - også i randzonen.

For selv om kanalspektret er relativt fladt på de 22MHz som 802.11g benytter, så er der en vis dæmpning i kanten, således at hvis der også er en generel dæmpning pga. afstand eller bygningsgenstande, så kan man faktisk godt tillade sig at gå lidt skævt på - men det afhænger helt af de konkrete forhold.

En anden ting er, for at følge dit spor lidt, så burde man hellere have lavet smallere kanaler på 2,4GHz, f.eks. 10MHz, og begrænset antallet af kanaler til 6 (eller 7), hvor der ikke kunne laves ulykker - det ville selvfølgelig give lavere hastighed, men højere kvalitet, så slutresultatet ville blive bedre.

Så kunne man til nødt tillade channel-bundling, men det skal være efter meget klare overvejelser.

  • 0
  • 0
#59 Baldur Norddahl

Eksemplet er søgt, men hvis der er en tynd papvæg mellem to af værelserne, så giver det nok sig selv.

Det minder lidt om vores kontor bortset fra at der er mere end fire rum :-). Og der er altid en der klager over dårlig dækning på lige hans kontor, så hvad gør man hvis man ikke vil planlægge det hele om igen?

Men hvorfor overhovedet pladre rundt i det - hvis man vil have et AP i hver rum, så brug dog 5GHz.

Det gør man naturligvis også, men så er spørgsmålet bare: er det bedre at slukke for 2,4 GHz på nogle af AP eller at have 2,4 GHz tændt på dem alle? At slukke helt for 2,4 GHz giver stadig i 2021 et rammaskrig.

  • 2
  • 0
#60 Christian Nobel

Modsat med kun ét AP og resulterende dårlig dækning og langsom bitrate til klienten i det fjerne rum.

Du bygger en række arbitrære betingelser ind for at prøve at underbygge din argumantation - for nu begynder du at tale om dårlig dækning, og det vil også give dine AP'er problemer.

Og så kunne du jo i øvrigt også sætte det enlige AP lige i midten, det ville med stor sandsynlighed give det bedste resultat.

  • 0
  • 0
#61 Baldur Norddahl

Du bygger en række arbitrære betingelser ind for at prøve at underbygge din argumantation - for nu begynder du at tale om dårlig dækning, og det vil også give dine AP'er problemer.

Nej Christian, jeg antager en forsimplet verden så vi ikke skal prøve at forstå en faktisk boligblok med hundrede af AP. Når vi så har forstået hvordan to AP kan samarbejde, så kan vi tage et skridt tilbage og kigge på den virkelige verden igen. Eksempelvis på vores kontor, hvor jeg har fuld kontrol over æteren og alle AP. Hvor værelserne er kontorer og afstanden måske er lidt større så det giver mening.

Og så kunne du jo i øvrigt også sætte det enlige AP lige i midten, det ville med stor sandsynlighed give det bedste resultat.

Ja i tankeeksemplet. Men hvis jeg tager det vi kan lære af vores model og overfører til vores kontor? Vores bygning er på 1600 kvm. Hvor godt tror du den taktik vil fungere?

  • 1
  • 0
#62 Jens Jönsson

Hvordan (og hvornår) kan alle være med? Det er ikke kun langt ude på landet men også områder i større byer, hvor man ikke kan abonnere på en forbindelse på mindst (og ikke bare op til) 100 Mbit/s.

Hvordan ? Tag kontakt til udbyderne og det bør ikke nødvendigvis være de store udbydere. Der findes en del små, som gerne vil udrulle fibernet, hvor de store ikke vil.

  • 1
  • 0
#64 Jens Jönsson

Men selv ældre wifi kan til en vis grad godt sameksistere på samme kanal.

Nej, Baldur det virker ikke i praksis. Hvis der ikke er noget nævneværdigt trafik, jo så går det da.

Tag f.eks. de fleste WiFi eXtendere, som modtager og sender på samme kanal. Mangler endnu at se at de virker i praksis, med bare moderat trafik på. Ja, er det surf/e-mail, så går det da ok.

  • 2
  • 1
#66 Maciej Szeliga

Problemet er at de mange gange ikke kan, i stedet ser de det som støj. Det er typisk det der sker i f.eks. etage byggeri.

Etagebyggeri kunne løses på en helt anden måde:

  • ejendommen etablerer WiFi til alle lejlighederne og hver lejlighed får egne SSID'er (der skal helst være mere end 2).
  • beboerne etablerer "WiFi forening" til lejlighederne - også her vil der være fælles centralt WiFi med egne SSID'er til hver lejlighed.

Det er stort set det samme som fællesantenne løsning men vil eliminere problemerne men vil forudsætte NUL egne WiFi løsninger. På den måde kan man optimere WiFi i lejlighedskomplekser og have et WiFi som dækker hele kompleksets område (dvs. også fællesarealer). Afregning kunne være fast beløb, efter forbrug på SSID eller med båndbreddestyret (lejligheden får f.eks. kun 300 mbps).

  • 0
  • 0
#67 Yoel Caspersen Blogger

Det er stort set det samme som fællesantenne løsning men vil eliminere problemerne men vil forudsætte NUL egne WiFi løsninger.

Og alene af den grund er idéen desværre dødfødt - så længe WiFi kører på ulicenserede bånd, er det umuligt at forhindre, at nogen opstiller deres eget AP.

Nye opfindelser og koncepter skal kunne sameksistere med eksisterende teknologi, hvis de skal have succes - ellers ender de i samme kategori som RUF.

  • 3
  • 0
#68 Yoel Caspersen Blogger

Hvilke udbydere tror du benytter QoS mod kunderne ? (Hint: det er billigere at købe mere kapacitet, end de fleste andre fiksfakserier)

Problemet er, at mere kapacitet ikke hjælper, når du kommer op i hastighed - lige så snart hastigheden kommer over 200 - 300 Mbit/s begynder latency og bufferstyring at have en afgørende betydning for kvaliteten af forbindelsen.

  • 4
  • 0
#69 Michael Hansen

Lys bevæger sig kun med cirka 200 km per ms i en fiber. Det andet er lysets hastighed i vacuum.

Dertil skal man huske at fiberen sjældent ligger i fugleflugtslinje. Der er som regel væsentlige omveje som årsag til at latency er højere end forventet.

Derfor jeg personligt finder Starlink interessant (ikke i den nuværende version, hvor hver satalit snakker med en ground station), men når de for sendt flere af den nye nyere generation op, og de får Starlink til Starlink til at fungere via laser lys i rummet, så kan det måske begynde at rykke noget på latency, mellem lande/kontinenter, modsat sø kabler, eller fiber i jorden til forskellige lande.

Tænkt eksempel Dansk ISP/Kunde der skal snakke med noget i Spanien, eller længere væk.

Der er selvfølgelig, andre led der tager latency, men hvis vi ser på Starlink som det er i dag, med Starlink <> ground station, så er latency allerede rigtigt god, ikke helt på fiber endnu, men derned af.

Og der er selvfølgelig også issuet med båndbredden per uplink/satellit.

  • 0
  • 0
#70 Torben Rune

Derfor jeg personligt finder Starlink interessant

Starlink er bestemt interessant. Det er faktisk det eneste satellitbårede system som kan komme i nærdeden af fiber hastigheder.

I januar i år redegjorde SpaceX overfor FCC, hvordan status og fremtid ser ud for projektet. Den redegørelse ligger her på FCCs hjemmeside: https://ecfsapi.fcc.gov/file/101220897228398/SpaceX%208th%20Floor%20Ex%2...

Det er yderst interessant læsning. På side 4 skriver SpaceX: "High-speed, low latency broadband - 100 Mbps (current) to 10 GBps (future) downlink to users, < 30 mS round trip latency to internet for most users".

(I den nuværende konstallation får brugerne ca. 100/40, med pingtider ubder 20 mS).

Samtidig med redegørelsen i januar, bekræftede SapceX, at de satellitter man sender op nu er udstyret med lasere til inter-sattelite kommunikation. Hver satellit har 5 lasere ombord. På YouTube ligger der denne glimrende video om Starling teknologien: https://youtu.be/giQ8xEWjnBs, som bl.a. handler om netop transmission og latency.

  • 0
  • 0
#71 Michael Cederberg

Folk vil noget forskelligt. Det vil låse beboere i et setup hvor vi ikke kan få opdelt vores netværk. Jeg har fx 7 SSIDs der kører på forskellige VLANs. Det tiltaler mig meget at knægtens mystiske spil ikke kan få udgang til noget vigtigt og at diverse IoT enheder også er på eget netværk.

  • 4
  • 0
#72 Maciej Szeliga
  • 0
  • 0
#73 Michael Cederberg

...og det kunne man i princippet godt tilbyde. Det vil komplicere sagen lidt men det er muligt.

Ja ... men grundlæggende har jeg ikke lyst til at blande andre ind i mit netværk. Det er både af sikkerhedshensyn men også fordi jeg ønsker selv at vælge teknologi og "dækning". Hvad gør jeg hvis ejerforeningen ikke synes at dækning på toilettet eller altanen er vigtigt

  • 1
  • 0
#74 Martin Schultz

Ejendoms løsninger på WIFI vil have samme problemer som antenne foreninger, bare i forværret grad da folk internet behov er meget forskellige samt teknologien ændre sig hurtigere.

  • Man ender nemt med en forældet utidsvarende løsning (der er fx antenne foreninger hvor yousee kun kan levere lave hastigheder da infrastrukturen er for dårlig). Fx vil der være penge til løbende opgraderinger? Det ville være ærgeligt i dagens danmark have have en 811.N løsning fordi der ikke var penge til at opgradere til 811.AC

  • Man tvinger brugerne til at betale for et produkt de ikke vil have, hvis de har brug for bedre internet. Lige som at der er folk der er tvunget til at betale for at være med i en antenne forening.

  • 1
  • 0
#75 Maciej Szeliga
  • 0
  • 0
#76 Simon Rigét

Min ping til version2.dk er på ca. 11 ms. Microsoft.com er på ca. 15 ms. Akamai.com rammer ca. 13 ms. Både Microsoft.com og Akamai svarer fra akamaiedge.com, men fra to forskellige noder.

Interessant at onkel Yoel eget Kviknet på et (indrømmet lidt tilfældigt tidspunkt) ligger ganske meget over dine ping tider:

  • version2.dk 19.1 ms (+72%)
  • microsoft.com 98 ms (+ 653% målt på http response)
  • akamai.com 17 ms (+31%)

Mens f.eks. DR ligger forbavsende godt:

  • dr.dk 3 ms!
  • google.dk 13 ms
  • amazon.com 105 ms
  • netflix.com 30 ms (målt på http response)
  • 0
  • 0
#77 Rune Hansen

Prøv evt. at pinge direkte på IP-adresserne (hvis ikke det er det du har gjort), det kan meget vel være DNS provider (med mindre ping automatisk går på IP).

Eks. vis tager Google næsten dobbelt så lang tid om at finde en side, som Cloudflare.

dig dr.dk @8.8.8.8 (Google) 92ms $ dig dr.dk @1.1.1.1 (Cloudflare) 56ms

  • 0
  • 0
Log ind eller Opret konto for at kommentere