Ændrer algoritmen: Google vil straffe reklametunge websider

Har du for mange reklamer i toppen af dit website, vil du fremover blive gemt længere væk i Googles søgeresultater.

For mange reklamer over ’knækket’ på en hjemmeside - altså det første, synlige skærmbillede - vil fremover udløse minuspoint, når Googles store algoritme skal prioritere søgeresultaterne. Det skriver Google i et blogindlæg.

Målet er at ramme de websider, hvor brugeren i første omgang kun ser reklamer og må scrolle ned, før det egentlige indhold viser sig. Den slags websider giver ikke brugeren en god oplevelse, skriver Google som begrundelse for, at ændringen bliver gennemført.

Har man et normalt antal reklamer øverst på siden, skal man ikke frygte noget, lyder meldingen.

»Denne ændring af algoritmen vil ikke påvirke websites, hvor der er reklamer over ’knækket’ i normalt omfang, men vil påvirke sites, som i langt højere grad fylder toppen af siden med reklamer på en måde, så det kan være svært at finde sidens reelle, originale indhold,« skriver Google.

Samlet set vil omkring én procent af alle websider blive straffet med en lavere pagerank, altså en dårligere placering i listen over søgeresultater.

Rådet fra Google lyder i øvrigt, at man som webside-ejer skal koncentrere sig om at levere den bedste brugeroplevelse, og ikke forsøge at bygge den op ud fra Googles søgealgoritme. Der vil nemlig ske over 500 ændringer af algoritmen i løbet af 2012.

Men måske skulle Google prøve at se på sin egen webside, lyder det fra Danny Sullivan fra bloggen Searchengineland.com.

Har man en skærm i den mindre ende, kan man faktisk risikere at få reklamer på hele skærmen over 'knækket', når man bruger Googles søgemaskine, viser han. Først kommer de sponsererede links, med en svag gul baggrundsfarve, og er det et produkt, man har søgt efter, vil der derefter være links til butikker, hvor man kan købe produktet. Først når man scroller ned får man de reelle søgeresultater, skriver Danny Sullivan.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Kommentarer (17)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Svend Eriksen

Det er ok at Google straffer sider der bevidst forsøger at bruge black hat SEO, men det her minder mistænkeligt meget om, at Google nu også begynder at lave vurderinger af, hvad der er godt og dårligt, og straffer det indhold de ikke kan lide. Det er der et ord for, og det hedder "censur".

Problemet ville ikke være så stort, hvis ikke det var fordi Google reelt har monopol på søgemarkedet, og det viser vist meget godt, at den antitrustsag som kører mod Google i øjeblikket er ret nødvendig.
Mere konkurrence på søgemaskinefronten, tak!

  • 1
  • 9
Jeppe Toustrup

Som jeg ser det, så prøver Google at give deres brugere den bedste oplevelse, og dermed gøre deres søge maskine mere attraktiv i forhold til konkurrenternes. Det syntes jeg er fint, og er vel fint i tråd med hvad man ønsker som forbruger.

At kalde det for censur er da vidst at gå lidt for vidt? De prøver jo netop at fokusere på indholdet af hjemmesiderne, ved at prioritere de hjemmesider som sørger for at sætte indholdet af deres sider højere på søgeresultaterne.

  • 14
  • 0
Anders Rosendal
  • 1
  • 0
Kasper Dupont

Jeg vil give dem ret i at antallet af reklamer Google har på siden i det eksempel er lidt overdrevet. Men til gengæld synes jeg de har valgt et dårligt eksempel. Deres valg af søgeord er jo netop et af de tilfælde hvor reklamerne nemt kan være mere relevante end de almindelige søgeresultater.

Var de virkeligt ikke i stand til at finde et eksempel med bare en enkelt reklame der ikke var relevant for de indtastede søgeord?

Der er også noget overlap mellem reklamer og søgeresultater. Men jeg kan ikke finde på nogen god måde at slippe af med det overlap når det hverken er acceptabelt at lade reklamerne påvirke søgeresultater eller at fjerne en god reklame fordi samme link findes i søgeresultaterne.

Men så lad os komme tilbage til det artiklen drejer sig om, nemlig deres ranking af websider. Det er helt i orden at ændre algoritmen på den måde de beskriver. Der er intet helligt ved den gamle version af algoritmen som betyder at den gamle version er mere rigtig end den nye. Hvis den nye algoritme giver en bedre oplevelse for brugerne, så er det en fornuftig ændring.

Det er jo også derfor der bliver sagt at man skal fokusere på at gøre sine websider gode for brugerne og ikke fokusere på at nå højt op i søgeresultaterne. Hvis den webside man laver er relevant for brugerne er det lige så meget Googles opgave at få den højt op i søgeresultaterne som det er webmasterens opgave.

Selvfølgelig skal denne ændring af Googles ranking også gælde for Googles egne sider. Men hvad det angår er eksemplet fuldstændigt irrelevant. Et link til en side med søgeresultater bør ikke dukke op i en Google søgning uanset hvor mange eller få reklamer der er på siden.

Der er to steder hvor der bør filtreres i URLer således at et link til et søgeresultat ikke dukker op i et søgeresultat. Det første skridt er at en side med søgeresultater bør listes i robots.txt, således at Google slet ikke crawler siden i første omgang. Det næste skridt er at Googles ranking algoritme bør opdage at siden ikke er særligt relevant for det tilfældes skyld at man skulle have glemt at sætte den i robots.txt.

Når det drejer sig om Googles egne søgeresultater er begge niveau af filtrering Googles eget ansvar. Og jeg tror de fanger dem i det første niveau af filtrering ved at have dem i robots.txt.

Til gengæld ser man den slags sider fra andre søgemaskiner slippe igennem. Der er søgemaskiner som ikke har deres søgeresultater listet i robots.txt. Det kan enten være en forglemmelse, eller et håb om at tiltrække brugere ved at have flere sider der for den utrænede crawler ser relevante ud.

Jeg oplever tit at søge på en kombination af ord og få et søgeresultat hvor den præcist samme kombination af ord indgår i præcist den rækkefølge jeg har tastet dem. Når jeg følge linket til det søgeresultat viser det sig at være en anden søgemaskine, og linket peger på et søgeresultat for en søgning på nøjagtigt den kombination af ord jeg skrev. Men denne anden søgemaskine har ikke et eneste resultat der faktisk er relevant.

Den slags er dårligt for brugeroplevelsen og er den primære grund til at jeg mener den slags links ikke burde inkluderes i søgeresultater. Det er selvfølgelig ikke altid nemt at komme med de bedste resultater i sådan et tilfælde. Nogle gange er der situationer hvor flere søger efter det samme, men hvor svaret ikke er at finde noget sted. Så ender man nemt i den situation jeg beskrev.

  • 1
  • 0
Flemming Hansen

Jeg synes det er kritisabelt at Google begynder at forholde sig til annoncer mv på hjemmesiderne. Er det ikke ofte dem selv der står bag mange af annoncerne? Det virker lidt dobbeltmoralsk.

Man skal også huske på at mange hjemmesider kun har indtægt via annoncer, så Google går reelt direkte ind og påvirker hjemmesidernes exponering hvilket kan give endnu lavere indtægter for siderne.

Hvis Google synes det er skidt med (mange) reklamer skulle de måske overveje at gribe i egen barm og desuden komme med alternative måder hjemmesiderne kan få penge ind, i stedet for bare at kvæle dem langsomt.

  • 0
  • 2
Jan Nøhr Pedersen

@Anders, jeg tror vi misforstår hinanden lidt. Ja Google tjener også penge på andres udbud af reklameplads gennem AdSense, men nok mere på deres egne sites. Når de "opfordrer" andre til at mindske deres udbud af reklameplads, stiger værdien af deres eget. De udelukker nok ikke deres egne sites fra deres søgeresultater, uanset hvor mange reklamer de har.

  • 0
  • 1
Log ind eller Opret konto for at kommentere