yoel caspersen blog bloghoved

WiFi-forventninger del 2: Ny laptop

Sidste gang vi kiggede på WiFi, kom der en masse brugbar feedback.

Flere indlæg gik på, at vores test var foretaget med en laptop, der slet ikke kunne udnytte de høje WiFi-båndbredder på vores routere.

Der var også et par læsere, der undrede sig over, at den kablede test ikke gav et bedre resultat - en undren, jeg i øvrigt også selv delte.

Jeg efterlyste et bud på en bedre Lenovo-laptop med tilhørende Linux-kompatibel dock, da jeg alligevel står over for en opgradering af min arbejdsstation.

Det endte derfor med, at jeg bestilte en Lenovo P53s med en Thunderbolt 3-dock. Tak til Michael Rasmussen, Benjamin Krogh og Jesper Mølgaard for tips og erfaringer med Lenovo.

Laptoppen ankom i forgårs, og jeg har derfor gentaget nogle af vores tests.

Allerførst en korrektion: I testene i mit første indlæg var det Lenovo L470, der agerede server, mens Lenovo T460s agerede WiFi-klient.

Nu til den kablede test: I stedet for en test mellem to laptops, der begge er tilkoblet en WiFi-router via kabel, tilkoblede vi en SuperMicro-server og Lenovo P53s til WiFi-routeren, begge via kabel.

Illustration: Yoel Caspersen

Nu er hastigheden på kabel, som den skal være - lige over 940 Mbit/s, som er det maksimalt opnåelige på en 1 Gbit/s port.

Det viste sig, flaskehalsen var egress performance - Lenovo L470 kan sende med ca. 750 Mbit/s, mens Lenovo T460s kan sende med ca. 850 Mbit/s. Begge laptops kan fint modtage 940 Mbit/s.

Og så tilbage til WiFi-testen - Lenovo P53s kommer med et Intel 9560 802.11ac (2 x 2) WiFi-netkort.

Kigger vi på specifikationerne, ser det umiddelbart ud som om, det burde performe væsentligt bedre end det Intel 8260-kort, der sidder i vores Lenovo T460s, som vi foretog den første test med.

Også denne gang foretager vi en referencetest, hvor vi placerer vores klient lige ved siden af WiFi-routeren. Alt andet trådløst udstyr er slukket under testen, og testen foretages i downstream retning set fra klientens side, så det kommer så tæt på et reelt scenarie som muligt.

Ubiquiti er ikke med i testen denne gang, da vores access points er udlånt til test et andet sted - men vi tester Inteno DG200 AL-AC, Inteno EX400, Sagemcom F@st 3890 og Sagemcom F@st 3890V3:

Illustration: Yoel Caspersen

Til sammenligning har vi referencetesten fra sidste gang, foretaget på en Lenovo T460s:

Illustration: Yoel Caspersen

Jeg kan ærligt talt ikke se den store forskel, kan I?

Relateret indhold

Kommentarer (26)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
#1 Michael Cederberg

... men i øvrigt synes jeg det ville være mere interessant at teste længere væk fra access pointet. Hvis man sidder lige ved siden af access pointet så kan man blot bruge kabel. Min erfaring er at Sagem boksene klarer sig relativt bedre når signalet er ringere og jeg gætter på det er normal scenariet for de fleste. Men det er baseret på ganske få datapoints.

Det ville også være interessant at se hvordan accesspoints opfører sig når trafikken stiger. Dvs. hvad der sker når man har to eller tre computere der alle bruger wifi maximalt. Ender du så stadigvæk med max. 600 MBps eller falder hastigheden? Ak og ve ... der er ingen grænser for hvad det ville være rart at undersøge.

  • 2
  • 0
#2 Yoel Caspersen Blogger

... men i øvrigt synes jeg det ville være mere interessant at teste længere væk fra access pointet. Hvis man sidder lige ved siden af access pointet så kan man blot bruge kabel.

Enig, men nu gik kritikken af testen på, at vi burde kunne opnå meget højere hastigheder med den rigtige klient - og så giver det vel bedst mening at sidde tæt på AP'et?

Min erfaring er at Sagem boksene klarer sig relativt bedre når signalet er ringere og jeg gætter på det er normal scenariet for de fleste. Men det er baseret på ganske få datapoints.

Det er umiddelbart også konklusionen i testen fra sidste gang - hastighed/afstand-kurven er umiddelbart fladere for Sagemcom-routerne end for de andre, vi har testet.

Dvs. hvad der sker når man har to eller tre computere der alle bruger wifi maximalt. Ender du så stadigvæk med max. 600 MBps eller falder hastigheden?

Jeg kan på forhånd garantere, at den gennemsnitlige hastighed falder, da uplinket til router / access point er på 1 Gbit/s :)

Jeg gætter dog på, et normalt brugsscenarie vil inkludere en eller flere klienter, der henter kontinuerligt med ca. 10-20 Mbit/s hver især (streaming devices), en enkelt klient eller to, der kortvarigt henter med høj hastighed (laptops), samt et større antal klienter, der næsten ikke henter noget data - men alligevel trækker nettet ned pga. ringere antenner (smartphones, IoT-devices etc.).

Den samlede, optimale WiFi-oplevelse handler således primært om at dæmpe sine forventninger, frakoble de ældste devices og i øvrigt montere (kablede) access points i de rum, hvor enhederne bruges.

Ak og ve ... der er ingen grænser for hvad det ville være rart at undersøge.

Enig ;)

Hvis der sidder nogen derude, som kan måle mere end 600 Mbit/s på det trådløse net, så del endelig jeres resultater her i tråden!

  • 2
  • 0
#3 Michael Cederberg

Jeg kan på forhånd garantere, at den gennemsnitlige hastighed falder, da uplinket til router / access point er på 1 Gbit/s :)

Ja, men bliver det samlede throughput mere end 600 MBps? Hvis svaret er negativt så er 1GBit forbindelser fuldstændigt umulige at udnytte fuld ud uden kabler. Enten kabler direkte til en eller flere computere eller kabler til mindst et accesspoint mere. Jeg gætter i øvrigt på at det samlede throughput vil falde og at det fine 4x4 MIMO holder op med at fungere optimalt.

(uanset hvad, så mener jeg at alt hvor det er praktisk muligt bør have netværk i kabel)

  • 1
  • 0
#5 Christian Schmidt Blogger

Jeg har også netop fået ny laptop. Både den gamle og den nye kører MacOS, så det skulle være en smal sag at bruge Migration Assistant til at overføre alle filer, indstillinger mv., enten direkte fra pc til pc (via wifi men ikke via access point) eller via min Time Capsule-backup. Men ak! Jeg lod Migration Assistant stå hele natten, men den kom tilsyneladende aldrig i gang med at overføre. Desuden kan ingen af de to maskiner bruges, mens overførslen står på, hvilket jo ikke er særlig smart, når overførslen tager lang tid.

Til sidst valgte jeg at rsync'e hele mit homedir fra den ene maskine til den anden, inkl. midlertidige filer, Git-checkouts osv. Hellere kopiere lidt for meget end lidt for lidt. Så kan jeg altid slette i det bagefter.

Jeg havde ca. 200 GB, der skulle flyttes. Mit wifi kører Ubiquiti, og begge maskiner stod 1 meter fra mit Ubiquiti-enheden. Med en konservativ antagelse om at kunne opnår 100 mbit/sek, skulle overførslen kunne overstås på 5 timer. Men nej – det tog 2-3 nætter, og det krævede manuel nødhjælp flere gange undervejs. Heldigvis kan rsync starte, hvor den slap. Men det overraskede mig alligevel, at det tog så lang tid.

Jeg gætter på, at det ikke var wifi-netværket, der var den begrænsende faktor, men det må stå hen i det uvisse.

Er det også jer andres oplevelse, at det er svært at opnå de teoretiske overførselshastigheder i praksis, når man skal overføre en blandet bunke af store og små filer vha. et almindeligt værktøj som rsync?

  • 3
  • 0
#6 Michael Cederberg

Nu kender jeg ikke rsync protocollen, men denne slags problemer ses ofte når folk forveksler båndbredde med latency. Basalt set er situationen den at båndbredden de sidste 30 år er vokset med en faktor 100.000 mens latency stadigvæk er nogenlunde den samme.

En protocol der virker ved at sende ganske små mængder data og så vente på svar på at data er modtaget i den anden ende før det næste sende vil i stort set alle situationer være begrænset af latency hvorimod båndbredde er ligegyldigt. Af samme grund vil det megen naiv RPC/SOAP/REST/DCOM/whatever integration mellem IT systemer være begrænset af latency og ikke båndbredde. Wifi har i øvrigt noget højere latency end ethernet.

Derudover kan det selvfølgeligt være at din computer bruger lang tid på at skanne harddisk eller at MacOS er langsom til at skrive på disken (i gamle dage kunne man nemt rende ud i at det langsomme var skrivning på disk).

  • 2
  • 0
#7 Aksel Koplev

Nu er hastigheden på kabel, som den skal være - lige over 940 Mbit/s, som er det maksimalt opnåelige på en 1 Gbit/s port.

@Yoel, hvorfor arbejder du med max 940 Mbit/s for din 1 Gbit/s forbindelse.?

  • 0
  • 0
#8 Yoel Caspersen Blogger

@Yoel, hvorfor arbejder du med max 940 Mbit/s for din 1 Gbit/s forbindelse.?

Det skyldes, at ethernet spilder ca. 6 % af båndbredden på overhead (ethernet headers, idle bytes mellem frames etc.) hvis man kører med en MTU på 1500 bytes.

Hvis man kører med Jumbo Frames (MTU 9000 bytes) mindskes tabet til ca. 1 %. Men max MTU på internet-trafik er 1500 bytes, så det er sjældent relevant at køre med Jumbo Frames på sit hjemme-netværk.

Se evt. en glimrende gennemgang her: http://rickardnobel.se/actual-throughput-on-gigabit-ethernet/

  • 2
  • 0
#9 Yoel Caspersen Blogger

Ja, men bliver det samlede throughput mere end 600 MBps?

Så fik jeg tid til at lave en test mere, hvor jeg tester med to instanser af iperf3 på hhv. port 5201 og 5202 samt to klienter samtidig.

Hvis jeg kobler de to laptops på den samme EX400, falder hastigheden ret præcist til lidt over 300 Mbit/s til hver.

Hvis jeg kobler den ene PC til EX400 og den anden til DG200 AL-AC (samme SSID men på hver sin kanal, og med et patchkabel mellem DG200 AL-AC og EX400), maxer testen gigabit-porten på serveren ud, og klienterne får hver især noget, der minder om 460 - 470 Mbit/s.

Så der ser ud til at være et loft på ca. 600 - 700 Mbit/s pr. AP - i hvert fald med de klienter, vi har testet med.

Det er så endnu en god grund til at have flere AP'er, som er tilkoblet routeren med kabel - det skalerer bedre med flere tunge klienter.

  • 1
  • 0
#10 Michael Cederberg

Så fik jeg tid til at lave en test mere, hvor jeg tester med to instanser af iperf3 på hhv. port 5201 og 5202 samt to klienter samtidig.

Fantastisk.

Jeg gad godt vide hvorfor vi ender på max 600-700 MBps. Men min konklusion er:

  • Hvis man sidder lige ved siden af et kablet access point så kan det gå hurtigt ... men endnu hurtigere hvis man blot sætter kablet i computeren.
  • Hvis man kun ønsker et access point og ikke har brug for WPA-Enterprise, VLANs, 802.11k, etc. og sidder på afstand af AP, så er Sagems ikke markant dårligere end de andre.
  • Hvis man deployer et repeater/mesh-netværk (dvs. netværk med flere APs uden kabler imellem) så kommer man sandsynligvis ikke over 600-700 Mbps i alt for alle brugere ... og kun hvis alle access points er lige ved siden af hinanden [Jeg gætter på at hastigheden er meget lavere in real life]
  • Access points over det hele med kabler imellem er klart kongen af speed med stor margin.
  • 0
  • 0
#11 Baldur Norddahl

Jeg gad godt vide hvorfor vi ender på max 600-700 MBps. Men min konklusion er:

Fordi AP ikke kan sende kontinuerlig men må holde pauser, så at andre også får en chance. Ind imellem skal klienterne også sende ack tilbage og også her skal der være luft omkring udsendelserne.

Det ser ud til at man maksimalt kan udnytte omkring halvdelen af den bitrate der sendes med.

  • 2
  • 0
#12 Aksel Koplev

@Youl, Jeg kikkede på din reference, Richard starter med at skrive:

The bandwidth on a Gigabit Ethernet network is defined that a node could send 1 000 000 000 bits each second, that is one billion 1 or 0s every second

Dette udsagen er faktuelt forkert: Et IEEE 802.3 1000BASE-T netværk, har netop et overhead udover den nominelle værdi. Jeg husker ikke det precise tal; men hvis det er 10 % så arbejder systemet altså med 1,1 Gbit/s bitstrøm og bruger de 0,1 Gbit/s til headers, fejlkorrektion m.v. således at nyttesignalet bliver de 1,0 Gbit/s.

PS! Man kan downloade standarden fra IEEEs hjemmeside og læse efter; men sidst jeg havde fat i den fyldte den mere end 1200 sider og 5 ringbind..

PSS! det er netop derfor at det hedder "overhead" ellers skulle det snarere hedde "undercut" . hvis det blev trukket fra.

  • 0
  • 0
#13 Baldur Norddahl

Dette udsagen er faktuelt forkert: Et IEEE 802.3 1000BASE-T netværk, har netop et overhead udover den nominelle værdi. Jeg husker ikke det precise tal; men hvis det er 10 % så arbejder systemet altså med 1,1 Gbit/s bitstrøm og bruger de 0,1 Gbit/s til headers, fejlkorrektion m.v. således at nyttesignalet bliver de 1,0 Gbit/s.

Der sendes med 1.250.000.000 bits per sekundt og der bruges 10 bits per byte på grund af encoding. Det giver 125 megabyte per sekundt og ganger du med 8 bits per byte får du 1 gigabit per sekundt.

Men det er ikke encoding man kalder for overhead. Det er den plads som optages af headere til mac adresser, crc med mere. Ethernet har derudover et interval mellem hver pakke hvor der skal holdes pause. Det er for at sikre at starten af en pakke kan genkendes.

Når man tester hastighed ved at downloade en stor fil og beregner hastighed ved dividere størrelsen på filen med tiden, så ud over ethernet overhead, så regner du ikke med de data (overhead) der går til MAC adresser, IP adresser og TCP header.

Alt i alt, så er det maksimale du kan downloade med TCP/IP på gigabit ethernet omkring 117,5 megabyte per sekundt. Gang med 8 for at få 940 megabit per sekundt effektiv hastighed.

  • 4
  • 0
#14 Baldur Norddahl

For lige at gennemføre beregningen. Citat Wikipedia:

packet size is maximum 1500 octet payload + 8 octet preamble + 14 octet header + 4 octet trailer + minimum interpacket gap corresponding to 12 octets = 1538 octets

IP/TCP bruger derudover 40 bytes. Det vil sige at 1460 data bruger 1538 bytes på linjen.

125 MByte/ 1538 x 1460 x 8 = 949 Mbit

  • 3
  • 0
#15 Jens Jönsson

Enig, men nu gik kritikken af testen på, at vi burde kunne opnå meget højere hastigheder med den rigtige klient - og så giver det vel bedst mening at sidde tæt på AP'et?

Nej, ikke nødvendigvis. Du kan sidde for tæt på AP og så er signalet for "varmt". Optimalt signal er omkring -55 til -60 dBm på 5 GHz. 2.4 GHz er -55 til -65 dBm.

Med for varmt signal, kan du f.eks. (igen) risikere at din modulation falder.

  • 0
  • 0
#17 Jens Jönsson

Det ville også være interessant at se hvordan accesspoints opfører sig når trafikken stiger. Dvs. hvad der sker når man har to eller tre computere der alle bruger wifi maximalt.

Det er sådan situation at UBNT UniFi AP'erne er optimeret til. Mange WiFi routere er optimeret til højst mulige hastighed, og det resulterer så i at performance er elendig, når der tilføjes flere trådløse klienter.

  • 0
  • 0
#19 Yoel Caspersen Blogger

Det er sådan situation at UBNT UniFi AP'erne er optimeret til. Mange WiFi routere er optimeret til højst mulige hastighed, og det resulterer så i at performance er elendig, når der tilføjes flere trådløse klienter.

Det må komme an på en prøve - vi har fået vores AP'er hjem igen.

Hvis vi nu kobler to klienter op til samme UAP-AC-Pro, hvad skal der så til for at undgå samme situation som på EX400 - at den samlede kapacitet er den samme, men at klienternes individuelle download-kapacitet halveres?

  • 0
  • 0
#20 Jens Jönsson

Ja, men bliver det samlede throughput mere end 600 MBps? Hvis svaret er negativt så er 1GBit forbindelser fuldstændigt umulige at udnytte fuld ud uden kabler.

Nu sender/modtager enheder jo ikke data konstant. Men det er klart at hvis specifikationerne på AP ikke kan klare over 2 Gbit/s i oplyst trådløs hastighed (Se svar længere oppe mht. bitrate og halvering af denne), så kan du selvfølgelig ikke udnytte en 1 Gbit/s fiber alligevel. Din klienter skal jo også kunne følge med.

At du så heller ikke kan udnytte en 1 Gbit/s forbindelse i den virkelige verden er en anden snak :-) Hvem kan levere så meget data til dig og har du plads på HD til at gemme alt det data ?

  • 0
  • 0
#21 Jens Jönsson

Hvis vi nu kobler to klienter op til samme UAP-AC-Pro, hvad skal der så til for at undgå samme situation som på EX400 - at den samlede kapacitet er den samme, men at klienternes individuelle download-kapacitet halveres?

Er det da den situation du oplever med UAP-AC-Pro ?

Tænker at hvis du tester med 2 klienter, som begge har AC og alt andet trådløst i huset er slukket, hvordan ser det så ud ?

Husk på at trådløst ikke er duplex, og at det fungerer som en god gammeldags Hub.

  • 0
  • 0
#22 Jens Jönsson

Så der ser ud til at være et loft på ca. 600 - 700 Mbit/s pr. AP - i hvert fald med de klienter, vi har testet med.

Det er så endnu en god grund til at have flere AP'er, som er tilkoblet routeren med kabel - det skalerer bedre med flere tunge klienter.

Jeg anbefaler altid flere AP'ere (men ikke for mange). Det giver god dækning i hele huset, Igen, i daglig brug er det fløjtende lige meget om jeg kan få 100 Mbit/s på mit WiFi, så længe det er knald hamrende stabilt. Jeg downloader sjældent (eller aldrig) store filer over WiFi, det tager jeg altid kablet. Og der er pt. ikke nogen tjenester ude på Internet, som jeg benytter over WiFi, som kan levere > 60 Mbit/s til mig. Jeg har ikke fundet dem, har du ?

Og jeg kan fint mit UniFi får 100 Mbit/s og det er knald hamrende stabilt. Har kun været genstartet pga. automatisk firmware opgradering. Oplever aldrig problemer hos mig selv, eller hos de af vores kunder, vi har solgt grejet hos.

  • 0
  • 0
#23 Michael Cederberg

Det er sådan situation at UBNT UniFi AP'erne er optimeret til. Mange WiFi routere er optimeret til højst mulige hastighed, og det resulterer så i at performance er elendig, når der tilføjes flere trådløse klienter.

Siger du med andre ord at det er dumt at købe UniFi AP'er hvis man oftest blot har en enkelt klient på ?

For UniFi serien bygger på standard broadcom/qualcom chipsets. Ingen skal kommer og fortælle mig at Ubiquity er i stand til at finde performance forbedringer uden downsides til disse standard chipsets, uden at andre ikke kan det samme. Jeg tvivler meget på at UniFy AP'er er specielle på dette område (men der er selvfølgeligt andre kvaliteter).

Nu sender/modtager enheder jo ikke data konstant. Men det er klart at hvis specifikationerne på AP ikke kan klare over 2 Gbit/s i oplyst trådløs hastighed (Se svar længere oppe mht. bitrate og halvering af denne), så kan du selvfølgelig ikke udnytte en 1 Gbit/s fiber alligevel. Din klienter skal jo også kunne følge med.

Pointen er man ikke kommer over ca. 600 Mbps i samlet båndbredde så længe man ikke har kablede accesspoints. Det er måske ikke noget problem for en enkelt bruger men det er et seriøst problem for en (stor) familie. Men husk nu på at de 600 Mbps er best case hvis man står lige ved siden af AP.

Hvis man sætter et Mesh/Extender netværk op så rammes noderne af samme tab af båndbredde pga. af afstand og forhindringer som almindelige wifi klienter (måske har extenderen bedre antenner?). I så fald er det en båndbredde langt under de 600 Mbps og så er det ganske seriøst.

Hvis jeg ser på tallene i Yoel's første indlæg så vil en extender på hans første sal skulle leve med ca. 60 MBps ud i verden.

Jeg anbefaler altid flere AP'ere (men ikke for mange). Det giver god dækning i hele huset,

Jo flere access points jo bedre (bare ikke for pengepungen). Og båndbredden vil være ganske begrænset hvis der ikke er kabel imellem. Så der skal altid kabel i.

  • 0
  • 0
#24 Jens Jönsson

Siger du med andre ord at det er dumt at købe UniFi AP'er hvis man oftest blot har en enkelt klient på ?

For UniFi serien bygger på standard broadcom/qualcom chipsets. Ingen skal kommer og fortælle mig at Ubiquity er i stand til at finde performance forbedringer uden downsides til disse standard chipsets, uden at andre ikke kan det samme. Jeg tvivler meget på at UniFy AP'er er specielle på dette område (men der er selvfølgeligt andre kvaliteter).

Hvis du tester UniFi så vil du opleve at hastigheden er "standard" hastighed. UBNT har gjort mere ud af at flere forskellige enheder kan være tilsluttet WiFi stabilt. Det har jævnligt været oppe at vende i deres forum, når folk brokker sig over hastighed.

Jeg siger netop ikke, at det er dumt at købe, hvis man går op i stabilt WiFi og ikke hænger sig i om man får 250 eller 300 Mbit7s igennem, hvilket også er langt rigeligt jf. nedenstående.

AP producenter har en masse tingeltangel de kan gøre med at kode i driveren og f.eks. har UBNT lavet nogle proprietære løsninger, som giver nogle mulighed, som WiFi standarden ikke understøtter.

Har oplevet at f.eks. en WiFi router kan bimle og bamle hastighedsmæssigt, men når flere klienter kommer på så falder alt sammen.

quote id=407153] Pointen er man ikke kommer over ca. 600 Mbps i samlet båndbredde så længe man ikke har kablede accesspoints. Det er måske ikke noget problem for en enkelt bruger men det er et seriøst problem for en (stor) familie. Men husk nu på at de 600 Mbps er best case hvis man står lige ved siden af AP. [/quote] Hvori består det "seriøse" problem for en stor familie ? Hvilke services på Internet kan levere > 100 Mbit/s til dig. Læg hertil at konstant belastning med 1000 Mbit/s i 24 timer er 10 Tb. Har du så meget diskplads og hvad fylder så meget at du kan maxe din 1 Gbit/s forbindelse ud på andet end en speedtest eller download af en ISO (igen downloader du flere hundrede ISO'er hver dag) ? Jeg har endnu til gode at se en (stor) familie max'e en 100 Mbit/s forbindelse ud konstant.

Her er der i øvrigt snak om kablede AP'ere.

Der er stor forskel på hvordan AP'ere performer i et MESH netværk. Extender er generelt noget skrammel, for der halverer du båndbredden på dit WiFi.

Typisk, så er der AP'ere med både 2,4 og 5 GHz, som har en extra 5 GHz MESH radio indbygget, der fungerer MESH rigtigt godt for båndbredde og radio er reserveret til MESH. Andre bruger den ene 5 GHz radio der er i AP'et og så er vi ovre i Extender verden, som er noget skrammel. Alle vil dog ikke nødvendigvis opleve det som værende skidt, de vil opleve fin dækning, fordi der er båndbredde nok. Problemet opstår først når WiFI'et bliver belastet af mange enheder og trafik.

  • 0
  • 0
#25 Michael Cederberg

Hvis du tester UniFi så vil du opleve at hastigheden er "standard" hastighed. UBNT har gjort mere ud af at flere forskellige enheder kan være tilsluttet WiFi stabilt. Det har jævnligt været oppe at vende i deres forum, når folk brokker sig over hastighed.

Det var dig der sagde at UniFi var optimeret til at have flere brugere på på samme tid (læst i kontekst kunne det kun læses som om UniFi var bedre end de testede i samme situation). Så konstaterer jeg at Ubiquity er et relativt lille firma med omkring 1000 ansatte. De har ikke ressourcer til at finde på banebrydende opdagelser indenfor Wifi - af samme grund bruger de wifi-komponenter fra de samme som alle andre (og det er der ikke noget galt ved - mine Cisco AP's bygger på broadcoms wifi).

Hvis UniFi således skulle være bedre end andre når der er mange/flere brugere på, så må de naturligvis have lavet nogle kompromisser andre steder sådan at noget var blevet ringere. Hvad er blevet ringere end "standard"? For hvis der var settings der blot gjorde det bedre uden at miste noget så ville alle vælge samme løsning. I øvrigt synes jeg Ubiquity laver nogle fine produkter.

AP producenter har en masse tingeltangel de kan gøre med at kode i driveren og f.eks. har UBNT lavet nogle proprietære løsninger, som giver nogle mulighed, som WiFi standarden ikke understøtter.

Har du nogen eksempler på hvad UniFi gør som andre ikke gør?

Har oplevet at f.eks. en WiFi router kan bimle og bamle hastighedsmæssigt, men når flere klienter kommer på så falder alt sammen.

Hvad betyder det? Og hvad var det for en WiFi router?

Hvori består det "seriøse" problem for en stor familie ? Hvilke services på Internet kan levere > 100 Mbit/s til dig.

En stor familie har mange brugere på nettet på samme tid. Hvis vi bruger din 100 Mbps/person (som jeg i øvrigt ikke mener er rigtig), så vil 7 personer der bruger nettet intensivt på samme tid opleve hastigheds tab. Hvis de vel og mærke sidder i en rundkreds og tilbeder access pointet der står i midten. Hvis de mere realistisk er fordelt rund omkring i bygningen så vil hastigheden til AP blive langt under 100Mbps/persen fordi deres hastighed falder med afstanden.

Læg hertil at konstant belastning med 1000 Mbit/s i 24 timer er 10 Tb. Har du så meget diskplads og hvad fylder så meget at du kan maxe din 1 Gbit/s forbindelse ud på andet end en speedtest eller download af en ISO (igen downloader du flere hundrede ISO'er hver dag) ?

Når det handler mennesker, så er kun peak-belastning interessant. Hvis jeg vil spille et spil nu der skal downloades, så hjælper det ikke at der er kapacitet i aften. Jeg vil spille nu. Med hensyn til at gemme, så er pointen netop at mange ikke gemmer det downloadede lokalt. Data ligger remote og skal således downloades hver gang det skal bruges.

Jeg har endnu til gode at se en (stor) familie max'e en 100 Mbit/s forbindelse ud konstant.

Jeg ved ikke om sådan en familie eksisterer og jeg mener ikke det er interessant. Det er kun hvis man har nogle batch IT-systemer hvor leveringstid ikke er vigtigt men samlet throughput er vigtigt at det vil have interesse. Nok ikke lige det man bruger en internetforbindelse i SOHO markedet til. Her handler det kun om peak-båndbredde og at brugere ikke accepterer unødig ventetid.

Vi kan have en lang diskussion om hvad moderne mennesker har brug for. I sidste ende er det nok noget med mad på bordet, tøj på kroppen, tag over hovedet og fred i deres omgivelser. Wifi står ret langt nede på listen over essentielle fornødenheder (selvom de fleste teenagere synes at tænke anderledes). Men når vi nu har opfyldt alle de behov der prioriteres over så når vi til hurtigt internet. Vi er 3 personer i hustanden. Jeg kan se vi peaker omkring 500 Mbps fra tid til anden. Jeg har ingen anelse om hvad det bruges til.

Typisk, så er der AP'ere med både 2,4 og 5 GHz, som har en extra 5 GHz MESH radio indbygget, der fungerer MESH rigtigt godt for båndbredde og radio er reserveret til MESH. Andre bruger den ene 5 GHz radio der er i AP'et og så er vi ovre i Extender verden, som er noget skrammel.

Ja der er meget skidt derude. Men pointen er at når du adskiller dine accesspoints i dit Mesh ved at stille dem i forskellige rum, så er de underlagt samme problemer med fald af båndbredde som Yoel så i hans første test. Yoel oplevede ca. 60 Mbps på 1. sal da han testede. Hvis han satte et Mesh-accesspoint (eller en extender) samme sted, så ville det såmænd nok også have en hastighed på mesh-kanalen på ca. 60 Mbps (måske kunne antenner være lidt bedre på access pointet?). Og så er vi nede i et områder hvor det kan mærkes … specielt hvis der er flere brugere. Derfor er kabler en eneste rigtige løsning.

  • 0
  • 0
Log ind eller Opret konto for at kommentere