It-chef i Aalborg efter nedbrud: Hvordan stress-tester man en switch, der skal kunne håndtere 20.000 enheder?

Kommunal it-chef vånder sig ved for en sikkerheds skyld at købe endnu større enheder end anbefalet.

It-chef Erik Balk Mouritsen i Aalborg Kommunes Skoleforvaltning forklarer nu situationen med et nedbrudt trådløst netværk med, at det er umuligt at forudsige og meget svært at tage forbehold for.

Som omtalt på Version2 tidligere i dag blev centrale switche, der skal formidle kontakten mellem de forskellige devices på et nyt trådløst netværk på skolerne i Aalborg Kommune, overbelastet ved skolestart.

Læs også: Switch-bøvl giver skolestart-problemer for digitaliserede skoler i Aalborg

Det medførte, at lærere og elever på Aalborgs fuldt digitaliserede skoler har været uden internet den første uge af skoleåret. Og de måtte humpe sig igennem på deres egne mobile bredbåndsforbindelser.

»Vi har slet ikke været forberedt på situationen, og man kan ikke lave en plan B. Vi er helt inde i det centrale netværk, hvor der er taget forbehold for nedbrud ved hjælp af redundans og flere enheder, der håndterer trafikken, men hvor switchene ikke har kunnet klare den samlede belastning,« siger han ifølge en artikel på Folkeskolen.dk.

Kommunen har været nødt til at stole på leverandøren og sine konsulenters vurdering af, hvilken belastning switchene skal kunne leve op til.

»Det eneste alternativ, man i princippet har til at stole på leverandøren, det er selv at stress-teste på forhånd. Og det er næsten en håbløs opgave, for hvordan stress-tester man en switch, der skal kunne håndtere 20.000 enheder? Det ved jeg ikke, om man kan rent teknisk,« siger Erik Balk Mouritsen.

»Ellers skal man for en sikkerheds skyld købe endnu større enheder end anbefalet, og der har vi trods alt også et ansvar for at passe på borgernes penge.«

Forberedt på mange enheder

En kendt udfordring på landets skoler og kommuner landet er ifølge Folkeskolen.dk, at antallet af enheder, netværket skal kunne håndtere, er støt stigende.

Når der er stabilt netværk på alle skolecomputere, logger elever og lærere også på netværket med deres smartphones. Når systemet kan holde til det, logges der også på med en tredje device.

Ifølge it-chefen er det dog ikke antallet af enheder, det nye netværk skal håndtere, der er problemet.

»Det er en udvikling, der har været kendt i flere år. Vi har længe kunnet se, at eleverne bruger flere enheder. Det er en af grundene til, at vi har skiftet det trådløse netværk ud. Vi kunne se, at kapaciteten på det trådløse netværk, vi havde, begyndte at ramme loftet,« siger han.

»Derfor har vi skiftet netværket ud, inden kapaciteten blev et problem, så vi kan blive ved med at være på forkant med udviklingen, som bare fortsætter og fortsætter.«

»Vores internetforbindelse er stor nok til at håndtere presset. Det trådløse netværk kører upåklageligt, men det var bindingen mellem de to dele, der i dette tilfælde ikke var god nok.«

Møde med leverandøren udestår

Erik Balk Mouritsen har endnu ikke haft et møde med leverandøren om, hvorfor de på forhånd fastlagte kapacitetskrav til switchene har vist sig utilstrækkelige.

»Vi har brugt al disponibel tid på først at finde frem til, hvad der var galt, og derefter få det løst så hurtigt som muligt,« siger han.

Den løsning forventes at komme i løbet af i dag.

»Konsulenterne er her, og nu venter vi sådan set bare på kasserne med de nye stumper. De burde kunne håndtere belastningen«, lyder det fra Erik Balk Mouritsen.

Det nye trådløse netværk har kostet cirka 10 millioner kroner.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Følg forløbet
Kommentarer (45)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Casper Pedersen

Hvis man har noget som 20.000 enheder er afhængig af burde man måske have en backup løsning ... der er en grund til at en disse switche/routere kan køre i Active/Passive eller Active/Active mode.

Jeg er ikke sikker på at en leverandør ikke nævner sådan noget at det betyder mere salg ... og de vil gerne tjene penge.

Martin Jensen

Der er noget uldent ved denne historie.

Hvis man har kendskab til kapaciteten, og ved der er nok, så kan man jo relativt nemt sikre den igennem. Lad os for sjov sige at man ved der bruges ~ 500 Mbps i spids, og man har 1 Gbps internet-forbindelse, så er det nok fint til i år.

Der er også 'upåklagelig wireless', så det stoler vi på er korrekt.

Switchen er da ligeglad med hvor mange den håndterer trafik for, med mindre det er lavet på en elefant måde, hvor alle wireless klienter lander i forskellige L2 VLANS mappet til SSID'er inde på én switch, og man evt. ikke har tænkt over en grænse på typisk 8192 (eller 16K) MAC adresser understøttet´, og måske endda en der lærer MAC adresser i software på CPU'en.

Indtil beskrivelsen af hvad 'håndtere' betyder, så lyder det som om denne fejl sagtens kunne være mageligt undgået, og/eller man forsøger at dysse et selvmål ned.

Anders Jensen

Det virker mærkeligt, at hele systemet bryder totalt sammen fordi en switch er en smule overbelastet. Normalt er netværkssystemer da designet til at være modstandsdygtige overfor overbelastning, dvs. at brugernes hastighed på nettet sænkes som følge af samspillet mellem buffering i switche/routere og TCP-protokollen. Måske man også har noget traffic shaping der søger for at fordele den tilgængelige båndbredde nogenlunde ligeligt mellem klienterne.

Bent Jensen

Det lyder ikke som vi har fået den rigtige, og hele historie.

Det lyder også til at V2 har fået deres PR historie, som går ud på at fraskrive sig mest muligt ansvar, og se så godt ud som muligt.

Men at de så bruger de samme konsulenter, som ikke lavet det rigtig i første omgang ?

Nils Bøjden

Alle elever må kun anvende én device - en labtop. Så lærer de mest

Det er en utroligt dårlig ide at anvende kablede net i en skole. Udfordringerne er bla. kabelrod på gulvene med 25 elever (plus til lærer), manglende eller ødelagte kabler som skal udbedres i timerne, udfordringer med rengøring, installation af faste kabler ødelægger muligheden for at flytte rundt på bordene til diverse undervisningsformer, vaner (alle ungerne lever med 100% trådløst i dagligdagen og opfatter kabler som mærkelige, unødvendige og begrænsende) samt dynamisk gruppedannelse i timerne.

Og lærerne er egentlig ligeglade med om ungerne bruger tabletter eller laptops. Bare de kan få fat på de applikationer skolen forlanger. På skoler hvor skolen udleverer PC'ere er dette selvfølgelig ikke noget problem.

Maciej Szeliga

...at man kan stole på producentens specifikationer, hvis vi er nået et punkt hvor prof. udstyr ikke leverer hvad der påstås så må kommunerne slå sig sammen om test af udstyr som så ender som det udstyr man må købe til specifikke formål.
Det er ikke økonomisk når x antal kommuner slås med lignende problemer og bruger y leverandører og udstyr fra 5 producenter... find den rigtige kombination, sørg for at den scalerer fra Rømø til København og brug den.

NB. jeg har svært ved at forestille mig en moderne switch som har problemer med loadet. Til gengæld har jeg hørt noget om QOS som kan nedsætte ydelsen på især 10g switche (men det har jeg ikke oplevet selv).

Gert Agerholm

Måske du skulle læse artiklen igen.

"»Vores internetforbindelse er stor nok til at håndtere presset. Det trådløse netværk kører upåklageligt, men det var bindingen i mellem de to dele, der i dette tilfælde ikke var god nok.«"

Forbindelsen mellem det interne LAN og internet opkoblingen er givet vis ikke trådløs men via kabel, så jeg tror du har misforstået noget. Tyder mere på at du vil starte en laptop/tablet diskussion, men det har slet ikke noget med sagen at gøre.

Hans Dybkjær

laptop/tablet diskussion


Det er flere år siden jeg har brugt kabler med min laptop (ud over strøm, og kun under opladning). Gælder både Windows/Dell og OS X/Apple, og både på arbejde og hjemme. Både laptop og tablets kan nok kables via adapter (hvis man insisterer eller kommer forbi ældre projektorer, printere eller lignende uden trådløs forbindelse).

Så laptop/tablet er irrelevant for diskussionen om trådløs/kabel og omvendt.

Jan Heisterberg

Det er åbenlyst naivt at lade x.000 skoleelever og yyy lærere møde op til et nyt, ikke stresstestet system efter ferien.
Selvfølgelig kan det testes bedre (ansæt 1.000 studerende en formiddag), eller lav faset opstart med reparationsperioder indlagt.

Det er uacceptabelt at idriftsætte systemer uden at gennemtænke dårlige eller meget dårlige scenarier. To Big to fail - er normalt ordsproget......

Bare ikke godt nok - ren IC4 ..........

Kjeld Flarup Christensen

Jeg kender det godt, man ved ikke om det man har sat op virker godt nok, før tirsdag morgen efter påskeferien. Der er ingen test som kan matche virkeligheden. Det mønster af requests der genereres er umuligt at genskabe med diverse test generatorer.

Og selvom de havde testet før sommerferien, så har verden ændret sig, for i mellemtiden er Pokemon Go blevet lanceret, det kan ændre mønstret.
Det første man skal gøre det er i hvert fald, at sikre at det kun er laptops og ipads der bruges til undervisning som kommer på.

Min datter oplevede det samme på hendes skole ved skolestart sidste år, hvor skolen gik over til at bruge elektronisk bøger. Jeg ved ikke hvad der var problemet den gang, men det virker nu. Det dummeste var blot, at min datter ikke måtte tage hendes mobil frem og lave sit eget internet.

Generelt så tror jeg at skoler skal regne med at den slags vil opstå når man tager fat på at bruge mere IT. Jeg tror dog ikke at der er så meget forgjort i at købe lidt ekstrastore switche, trafikken skal nok stige. Og det koster jo ikke alverden, hvis blot man holder sig fra Cisco. Ellers skal man bare være klar til at sætte ind og løse problemerne.

Og hold så ellers plan B klar: Tavle og kridt.

Mads Bendixen

Manden erkender deres fejl og spørger efter hjælp. Istedet er der 21 ud af 23 svar der hellere vil håne, end at hjælpe.
Jeg havde forventet mere af version2s læsere.

»Det eneste alternativ, man i princippet har til at stole på leverandøren, det er selv at stress-teste på forhånd. Og det er næsten en håbløs opgave, for hvordan stress-tester man en switch, der skal kunne håndtere 20.000 enheder? Det ved jeg ikke, om man kan rent teknisk,« siger Erik Balk Mouritsen.

Bent Jensen

Måske fordi vi ikke køber historien ?

Som andre skriver 20.000 enheder, jo lidt mere end jeg har der hjemme. Men også et andet budget til at få det til at køre. Men jeg vil personlig, hvis det var mig som have ansvaret, ikke have udrullet det alt sammen på en gang.
Jeg vil omkring nytår 2015 have udtaget en mindre skole til test, hvorefter jeg med erfaring fra bruger og mit team, ville have flyttet en større skole over når jeg var klar, Men ikke i eksamenstiden. På basis af det, ville jeg turde udrulle det over en sommerferie til alle. Men beholde det gamle system hvis det var noget som var overset, eller som backup i tilfælde af nedbrud.

Men hvordan mener du at manden spørger om hjælp ? Så skulle vi have haft information om hardware, software, opsætning som antal Vlan, QoS og en helt masse andet.

Synes mere for sidelinjen at vi får PR historien, gået ud på at se så lidt dum ud som muligt. Når man umildbart virker komplet håbløs og tumpet. Man på også håbe at de sikkert meget dyre konsulenter, ikke bare er overfladisk sælger eller ligende Djøf. Det er meget langthåret at sætte en rigtigt Switch og Router rigtigt op, og ikke noget man bliver ekspert til, bare fordi man kan sætte en VPN tunel op i Zyzel, eller sætte en NAT op i en TP-Link.

Hvad siger deres egen tekniker, som forhåbentligt har arbejdet meget med deres hardware inden, samt også er enten certificeret eller har været på kursus i det, til de her problemer. Men sådan en løsning kan man jo ikke bare købe en hyldevare, også regne med at der ikke skal bruges tid på tilpasning og vedligeholdelse, især i staten.

Jn Madsen

Hvis problemet kan løses med et par nye switche er det grundlæggende design ok.

Så er problemet mere, at man ikke har villet ofre nogle teknikere til at stå standby med nyt og større grej, på det tidspunkt hvor man vidste trafikken ville peake.

En god tekniker/designer vil allerede på forhånd have udpeget potentielle flaskehalse,- og have en eventuel opgradering af udstyret klart hvis behovet er der.

Der er nogen,- kunde eller leverandør, der har tænkt "det går nok",- eller også har leverandøren ikke været dygtig nok til at spotte potentielle flaskehalse.

Klavs Klavsen

Hvis man nu havde sat det op så man indsamlede alle SNMP data fra netværksudstyret - så havde man på MEGET KORT TID - kunne se hvor problemet var.

Så mit råd er at STARTE med at have ordentlig overvågning på plads. Der er glimrende open source værktøjer til jobbet. Personligt er jeg fan at graphite og så f.ex. diamond (python) som agent opsamler - den kan sættes op på fremskudte noder rundt omkring - så den kan nå de SNMP enheder den skal kunne hive statistik fra - og så sæt dem til at indhente som MINIMUM - hvert minut (5 minutter - og værre endnu - snittet til større intervaller efter 1 time eller lign. - er næsten ubrugeligt).

Der findes også værktøjer som KUN håndterer netværksstatistik, men de er efter min mening lidt for begrænset, men hurtigere at sætte op i første omgang.

Klavs Klavsen

Switche og andet netværksudstyr kan faktisk ofte finde på at logge problemer som er forårsaget af forkert opsætning. F.ex. STP problemer mm. (har set et sted hvor deres trafik lige pludselig røg over et 1GB link (management link) - og da de kørte 10GB - gav det et alvorligt problem for storage trafikken derover :)

Logs kan f.ex. opsamles i elasticsearch (og søges med kibana) - via en syslog server.
Alt er Open Source og der findes tonsvis af vejledninger så jeres egne folk burde sagtens kunne sætte det op - og hvis i får nogen til det.. så SØRG for at konsulenterne IKKE sætter det op (andet end måske første gang) - og at jeres egne folk så gør det resten af gangene, så i sikrer at vidensoverdragelsen er fundet sted ;)

Jn Madsen

Det er lidt svært,- fordi for ordkløvere som mig, der en switch en layer 2 dims. En kasse der switcher på MAC adresser. Nogle personer bruger så ordet om layer 3 funktionalitet,- hvor den mundrette betegnelse burde være router.

Sådan helt grundlæggende, ser pågældende netværk nok sådan ud:

Wifi -> opsamling i switche -> firewalls -> noget trafik skal nok forbi lokale servere -> router(e) mod ISP

Det er den mest simple opsætning,- og der er flere muligheder for flaskehalse. Så store wifi netværk som vi taler om her, der er stor risiko for f.eks. botnet ballade. En klient kalder på DOS angreb. Det er rygende svært at opsnuse og lukke ned for.

Men hvis vi taler om problemer med "switchene",- så forstår jeg ikke formuleringen "håndtere 20.000 enheder". Det vil normalt være wifi controllerne eller firewalls der holder styr på clienterne, en switch er bare en dum kasse der flytter layer 2 trafik. Men ok,- hvis de har investeret i meget billige små switche?

Der mangler information her,- før man kan komme med kvalificerede bud.

Jn Madsen

Og ja, som Klavs siger,- alle komponenter skal monitoreres i hovede og r**.
Grafer/data på alle interfaces, alle CPU'er og ram.
Gennemtænkt QoS alle steder, restriktive firewalls der lukker ned for mistænkelige sider på nettet. Det må ungerne glo på når de kommer hjem.
Hvis man ikke overvåger alt,- så aner man ikke hvor man skal lede når det går galt.

Maciej Szeliga

Men hvis vi taler om problemer med "switchene",- så forstår jeg ikke formuleringen "håndtere 20.000 enheder". Det vil normalt være wifi controllerne eller firewalls der holder styr på clienterne, en switch er bare en dum kasse der flytter layer 2 trafik.

Hvis man kører med accesspoints så er det reelt set switchene der håndterer alle klienterne, alle klienter fra samme accesspoint er bare bundet op på den fysiske port accesspointet sidder i. Hvis det var en "dum kasse" ville det være en hub, swithen holder trods alt styr på hvilken MAC der sidder på hvilken fysisk port og på hvilket VLAN.

Knud Jensen

»Vores internetforbindelse er stor nok til at håndtere presset. Det trådløse netværk kører upåklageligt, men det var bindingen mellem de to dele, der i dette tilfælde ikke var god nok.«

...

Kommunen har været nødt til at stole på leverandøren og sine konsulenters vurdering af, hvilken belastning switchene skal kunne leve op til.

Og hvorfor er det så at en switch for skylden for problemet?
lyder mere som om det er leverandøren og/eller konsulenters skyld.

Jn Madsen

Hvis man kører med accesspoints så er det reelt set switchene der håndterer alle klienterne, alle klienter fra samme accesspoint er bare bundet op på den fysiske port accesspointet sidder i. Hvis det var en "dum kasse" ville det være en hub, swithen holder trods alt styr på hvilken MAC der sidder på hvilken fysisk port og på hvilket VLAN.

Se,- det er lige det. Folk (og producenter der desperat prøver at give en illusion af de har fundet på noget nyt) snakker om layer 3 og 4 switche, og alle mulige andre bluff halløj. Begrebsforvirringen er total.
Ja,- hvis du vil kalde en switch's simple arbejde med at switche og huske på mac adresser for "at holde styr på". Det er ikke så kompliceret, det er et spørgsmål om have benytte switche med nok throughput kapacitet og rigeligt ram. Og ordentlig konfiguration med STP, storm control og alt det der.
Det er også rimeligt nemt at troubleshoote.

Jeg har en fornemmelse af, at ordet "switche" her måske mere dækker over routere/firewalls/wifi controllere. Folk benytter de betegnelser i flæng :-)

Baldur Norddahl

Se,- det er lige det. Folk (og producenter der desperat prøver at give en illusion af de har fundet på noget nyt) snakker om layer 3 og 4 switche, og alle mulige andre bluff halløj. Begrebsforvirringen er total.

Folk bruger begreberne i flæng fordi modellen med lag ikke længere passer til dagens virkelighed. I hvert fald ikke hvis du vil kunne kalde en fysisk dims for en lag X dims. Kun de billigste switche til et par hundrede kroner kan beskrives som lag 2 switche. Alt der er dyrerer har funktioner helt op til lag 7.

Hvad er en lag 3 switch? Hvis "switch" er synonym med "lag 2" er det jo en selvmodsigelse. Men det er et forsøg på at sige at her har vi en switch der også kan lidt lag 3. Det er også ofte blot en positionering i producentens produktportefølje.

Det er i øvrigt mindre krævende at switche på "lag 3" niveau end "lag 2" hvis lag 3 er IPv4, IPv6 eller MPLS. Blandt andet skal du ikke håndtere broadcast, dvs. indgående pakker der skal dubleres og sendes ud på alle porte.

Den principielle forskel er at ved lag 2 skal du slå op i en simpel hashtabel, hvor nøglen er en 56 bit MAC adresse og værdien du får tilbage hvilken porten pakken skal sendes ud på. Hvis du får et cache miss skal du dublere pakken og broadcaste den ud på alle porte.

Ved lag 3 (IPv4/6) skal du i stedet slå op i en routing tabel som er "longest match". Nøglen er destination IP adresse og værdien der kommer ud er hvilken port og hvilken next hop IP adresse der skal benyttes. Det er mere krævende at lave et "longest match" opslag men til gengæld er en routing tabel ofte mindre. Next hop IP adresse skal konverteres til next hop MAC adresse ved at lave opslag i ARP eller ND tabellen og det opslag er et simpelt hash tabel opslag ligesom MAC opslaget ved lag 2 switching. Hvis der er et cache miss så dropper du pakken eller sætter den i kø og afventer at en CPU tager sig af sagen.

Kontrolplanets CPU er noget en managed switch må have under alle omstændigheder for at være "managed" og resten er bare software. Og det software kan meget vel være Linux eller en af BSD varianterne. CPU'en flytter ikke pakker, men håndterer blot lidt ARP og ND, så den kan være lige så svag som en Raspberry Pi.

Af den årsag er rene "lag 2" switche noget der efterhånden er reserveret til historiebøgerne og til kinesiske 5-porte unmanaged switch til 150 kr inklusiv forsendelse købt på EDBpriser.dk.

Det er til gengæld stadig almindeligt at bruge hardwaren i lag 2 mode selvom de supporterer meget mere. Men det er også almindeligt at andre bruger præcis samme hardware til lag 3 routing i stedet. Vi bruger eksempelvis en hel del "switche" uden at en eneste port switcher baseret på MAC adresse. Vores "switche" putter kundernes trafik ind i et L2VPN og sender trafikken videre som MPLS. De samme switche er også en del af vores backbone net og de router trafik baseret på MPLS protokollen. At route MPLS må være endnu mindre krævende af hardwaren, da det blot er et 20 bit tabel opslag, så du behøver end ikke implementere en hash funktion.

Jn Madsen

Baldur,- du behøver ikke at undervise., jeg har rodet med det her i 30 år,- og i de år arbejdet med de absolut største og mest komplekse ISP netværk i Danmark :-)

Af samme årsag, så lærer man at udtrykke sig i meget simple og letforståelige termer. Ellers opstår der misforståelser og fejltagelser.
Bogen med fejltagelser pga misforstået kommunikation over termer er uendelig tyk.
Os der lever med Tera throughput, 99,999 og "velkommen på forsiden", når vi laver en fejl, kalder L2 for "switch/switching" og L3 for "router/routing",- KISS.

Men du har lidt ret,- med udstyr med lavere kapacitet ser man oftere sammenblanding af OSI modellens lag hos brugeren.
Lidt mere af "Hov, vi sætter den kasse til at switche lidt mellem de porte, laver et virtuelt interface med en ip,- og så kan kassen route til de andre interfaces,- hov!!! ... kassen kan sniffe på lag7, så det sætter vi den også til, der fik vi sgu også lidt gratis firewall ....DHCP kapabiliteten ser fristende ud, det kan den lige så godt også tage sig af ... genialt, den kan LDP, vi har nu et ægte ISP MPLS netværk. Vi køber 2 af dem, så kan vi sige vi har et fuldt redundant netværk".

Så har man en lille ISP'er/kunde der sveder som et sv**, den dag en underlig bug stikker en kæp i hjulet på kassen.
Når dagen er omme, er der ikke noget nyt. Det er bare en kasse der kan arbejde på flere lag i OSI,- og det er op til brugerens mod og økonomi om hvor meget han tør mokke i kassen.

Jn Madsen

Et meget benyttet udtryk er f.eks. "trunk". Alle bruger det,- men sjove ting sker hvis det er folk der ikke til dagligt arbejder med samme teknologier.

For en kablingsmand er en trunk typisk et mellemkrydsfelt.
For en voicemand er en trunk typisk et SIP link.
Ip folk bruger tit betegnelsen for et 802.1q/ISL link.
En engelsktalende mand mener det er bagagerummet på en bil.

Så når en tekniker siger "trunk" til mig, så spørger jeg altid helt dumt "hvad mener du med trunk?". Så må de grine lidt over min uvidenhed.

Når folk siger "switch" ... så spørger jeg også dumt. Måske mener de den router de benytter som firewall??

Baldur Norddahl

Men du har lidt ret,- med udstyr med lavere kapacitet ser man oftere sammenblanding af OSI modellens lag hos brugeren.

Udstyr i terabitklassen sammenblander også lagene. For mig lyder det mere som om at du aldrig har prøvet selv at skulle betale for udstyret - du får ikke bedre kvalitet, stabilitet og bla bla bare ved at betale for udstyr med unødige features.

De "MPLS routing switch" vi benytter flytter trafikken i hardware præcis ligeså meget som din Cisco dims til 1 million kr. Ingen forskel der. Linerate og non blocking.

Producenten kalder den en "routing switch" fordi den sammenlignet med deres "router" er begrænset i hvor mange routes den kan have i hardware. Vores klarer omkring 30.000 routes. Hvilket er mere end rigeligt da disse devices ikke benyttes i default free zone. Og ja, man kan benytte dem selv i meget store netværk (meget større end TDC, faktisk arbitrært store net) for der er altid mulighed for at agerigere routes så at dine små billige "routing switches" ikke skal håndtere irrelevante routes på den anden side af kontinentet.

Jn Madsen

din Cisco dims til 1 million

Nej, de tunge ISP'er køber typisk med rabatter på 80-90%. Men Cisco er på hælene, Juniper, Alcatel, Huawei og et par andre gør ondt på dem. Cisco har ikke været tiptop i mere end 10 år.
Der hvor de "etablerede" producenter trækker fra, - det er hvor mange bit kassen kan flytte per centimeter i rack (kapacitet)/udgifter til strøm og køling/garantier fra producent. Direkte hotline til inderkredsen ved problemer. Jeg har set softwarepatches programmeret og implementeret få timer efter fejlrapportering.
Integrationsevne med eksisterende overvågnings og implementeringssystemer tæller også meget.
Det rent tekniske er bare ævlebævle, kasserne kan det samme. Det er venstrehåndsarbejdet -alle koder efter de samme IEEE og RFC'er.
Når der er millioner af kunder, er der andre spilleregler. Nej, jeg har ikke læderet oppe selv :-)

Jan Rasmussen

Jeg er lige nødt til at høre hvor mange IP adresser der er på det/de eksterne NAT interface til internettet.
20.000 enheder - 20 porte pr. styk = 400.000 porte. så skal der da være en del eksterne IP adresser i en pool for at det kan fungere som det skal.
Når først de begynder med skype og andre peer2peer forbindelser løber det afsindigt i vejret.

Baldur Norddahl

Der hvor de "etablerede" producenter trækker fra, - det er hvor mange bit kassen kan flytte per centimeter i rack (kapacitet)/udgifter til strøm og køling/garantier fra producent. Direkte hotline til inderkredsen ved problemer.

Skal jeg sende dig et billede af indersiden af telefoncentralerne? Der er tomt. Rækker af forladte racks og tomme pladser på gulvet, som aldrig kommer til at blive brugt igen. Tingene fylder ikke hvad de gjorde engang og det betyder også at yderligere reducering er værdiløs her.

En hyldesektion på 10 rack units koster 34,50 kr i leje om måneden på en telefoncentral med klimaanlæg. 100 watt -48V DC strøm med UPS backup koster 44,04 kr per måned. Det er hvad vi klarer os med på en telefoncentral og det er udstyr der klarer 40 Gbit/s - kan uden yderligere pladsbehov eller mere strøm opgraderes til 640 Gbit/s eksempelvis med denne switch (som også kan route...) http://www.edgetech.lv/edge-technologies-main/switching/zte-zxr-10-5960-...

Til sammenligning kan nævnes at den samlede internettrafik i Danmark er på et par terabit. Du kan flytte det hele i et par units rack og med et strømforbrug på et par hundrede watt.

I et datacenter hos Google eller Facebook sker der lidt mere. Facebook har sagt at de flytter 10 til 100 gange mere data internt i datacenteret mellem serverne end det de sender ud.

PS.: ZTE har lavet hot patches til os på den beskrevne måde. Det behøver man ikke hedde Cisco eller Juniper for at tilbyde.

Jn Madsen

Jeg tror du med en mindre indsats kan finde en masse artikler og Youtube film fra bl.a. Cisco,- hvor netop størrelse/strømforbrug/køling netop anses for at være en af de vigtigste parametre for fremtidige produkter.
Nu ved jeg ikke hvor meget du færdes i større professionelle miljøer, men plads, strøm og køling er i højeste grad i fokus. Store omstruktureringer bliver designet netop ud fra de parametre.
Hvis man regner med at flytte X giga på Y antal interfaces,- så betyder det en del om man skal leje 1 stel eller 3 stel på en site i New York, og hvad udgiften til strøm og køling er. Det er også rart at kunne sludre med førende softwareudviklere, når SLA'er i klassen med alt for mange nuller hænger med rø*** i vandskorpen.

Jeg siger ikke, at de "mindre" producenter ikke har en plads,- de har de jo. Der er nogen der køber deres ting. Personligt har jeg da et herligt hjemmelab med Mikrotik, Ubiquiti, pfSense og andre sjove ting.

Nok om det ... jeg tror, vi står med forskellige baggrunde i denne snak :-)

Log ind eller Opret konto for at kommentere
Brugerundersøgelse Version2
maximize minimize