En gennemsnitlig webside fylder nu mere end Doom

Større billedfiler og mere Javascript er med til at puste mange hjemmesider op, så gennemsnittet nu er på 2,3 megabyte.

I gennemsnit skal der nu hentes mere end 2,3 megabyte ned, når man indlæser en hjemmeside. Det svarer til størrelsen på installationsfilen af 3D-skydespilsklassikeren Doom, påpeger blogger Ronan Cremin.

Tallet kommer fra HTTP archive, og det er først og fremmest billedfiler, der fylder, men også forskellige scripts, skrifttyper og video er med til at trække gennemsnittet op.

Gennemsnitsstørrelsen er fordoblet på cirka tre år, og over en femårige periode har væksten været nærmest lineær.

Helt enkle er tallene dog ikke, for der er nogle ekstremt tunge sider, som trækker gennemsnittet op, så en typisk side vil være mindre, påpeger Google-udvikler Ilya Grigorik i et blogindlæg. Det betyder dog ikke, at webudviklerne kan ånde lettet op, for hans pointe er, at nogle få tunge desktop-sider rykker så meget ved gennemsnittet for desktop-siderne, at mobilsiderne ser lette ud til sammenligning.

Reelt set trækkes desktopsiderne ned af de meget tunge sider, og både mobilsiderne og desktopudgaverne bliver tungere i forhold til tidligere.

For brugerne betyder de større sider en oplevelse af potentielt længere svartider og større dataforbrug.

Det er dog muligt at reducere antallet af bytes, der skal leveres. For de ti mest besøgte sider er størrelsen faldet over de seneste år, påpeger Ronan Cremin i sit blogindlæg.

Da billeder er det, der fylder mest, er det også her, der er mest at hente. Det kan eksempelvis ske ved at skalere billederne på serveren i stedet for at sende et billede i højeste opløsning til browseren og så lade den skalere det.

Her kan mange hjemmesider få en hjælpende hånd fra eksempelvis Wordpress 4.4 og Drupal 8, der begge indeholder moduler til sende den passende billedstørrelse til brugeren.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Kommentarer (12)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Anders Rask

Enig, requests er ofte en større synder end footprint.
Der er begrænsninger på antal requests pr host domain i browseren, og det er typisk svært at styre hvilke requests der prioriteres, så selv om requests er async vil det give dårlig performance når requests står og venter på hinanden.

Jeg har altid både Ghostery og Adblock+ aktiveret når jeg surfer nyhedssites, det speeder oplevelsen gevaldigt op...

  • 3
  • 0
Michael Jensen

Det fakta, at sites fylder mere og mere, er vel ikke så brugbart i sig selv.
Alle programmer fylder mere og mere, vores datasæt fylder mere og mere, samtidig med at vores storage, ram og netværk bliver større og hurtigere.

Så løber websites' størrelse fra resurserne, som måske primært er netværk og ram? Eller følger de bare resten af udviklingen?
Går der længere tid fra vi taster en URL, til vi har et færdigindlæst site i dag, end der gjorde for 10, 20 år siden?

Det er en underlig og lidt ubrugelig måling i sig selv...

  • 0
  • 3
Lars Lundin

Og ja, det er en opfordring til at fjerne noget af alt det tracking-lort på version2.dk

For nogle år tilbage ophørte IDA med at sende papirudgaven af Ingeniøren til medlemmer i udlandet.

Da jeg således kun kunne nyde godt af mit medlemskab via ing.dk og version2.dk prøvede jeg at diskutere tracking-problemet med IDA.

Herefter kunne jeg ikke længere se en grund til at være medlem, efter godt 25 års medlemskab.

  • 3
  • 0
Claus Futtrup

"Helt enkle er tallene dog ikke, for der er nogle ekstremt tunge sider, som trækker gennemsnittet op, så en typisk side vil være mindre" ... OK, så det man egentlig er interesseret i her, det er vel MEDIANEN. Hvor stor er median hjemmesiden, er det noget man kan finde ud af?

  • 2
  • 0
Nicolai Clemmensen

Tænkte det samme, men det de nok helst vil have er størrelsen på størstedelen af siderne (altså den pulje med flest sider)... At der så er mange blanke sider, det kan man så ikke gøre så meget ved ;)

Til alle dem der skriger over V2's tracking: I kan jo bare blokkere det, irriterende ja, men muligt. De har trods alt fået SSL på (valget af CA kan så diskuteres, givet at det er et nyhedssite med, til tider, kontroversielle nyheder).

Hvad V2 måske nærmere bør se på, er hvorfor filen jeg blev logget ind på magisk vis, ved blot at klikke på aktiveringslinket i den ukrypterede e-mail!
Ja, jeg oprettede brugeren på en anden enhed end hvor jeg aktiverede, og blev logget ind ved at klikke på linket :/

  • 1
  • 0
Rune Jensen

en del med optimering af hastighed, og bla. også med hvordan man får grafikken ned.

Sprites til ikoner er en udmærket mulighed, ligesom inline images i CSSen kan være - i visse tilfælde - en god idé. Det sidste var ikke en mulighed længe pga. IE, men de nyeste IE burde kunne forstå det.

Jeg har brugt bla. denne til at danne sprite images til ikoner til landeflag:
https://www.flag-sprites.com/

Og så kan man køre billedet igennem for eksempel:
http://websemantics.co.uk/online_tools/image_to_data_uri_convertor/

  • 0
  • 0
Knud Jensen

Angiveligt skulle den nye udgave af Doom fylde cirka 45GB.

Det kunne være interessant at vide hvad en hjemmeside gennemsnitligt fyldte dengang det oprindelige Doom var nyt.
Bare for at se om der proportionalt er sket noget, eller om alt er som det plejer at være.

  • 0
  • 0
Log ind eller Opret konto for at kommentere