Nu forklarer Google, hvorfor søgemaskinen tabte op mod 4 pct. af websites i april
Omkring fire procent af alle hjemmesider, som er indekseret af Googles søgemaskine, forsvandt i april fra søgeindekset ifølge et estimat fra Moz Marketing, som Search Engine Land henviser til.
Nu er Google gået ud med information om, hvad der egentlig skete, skriver Engadget.
Google bekræfter ikke selv, hvor mange websites der blev berørt, men skriver, at de i perioden efter problemerne, som ramte dele af Googles infrastruktur, har foretaget en grundig analyse af, hvad der gik galt – og hvorfor det skulle tage flere uger at få alt på ret køl igen.
Selskabet skriver, at de med jævne mellemrum udruller nye versioner af sit søgeindeks til alle sine datacentre verden over.
Søgeindekset er en database med oversigt over flere hundrede milliarder websites, og Googles søgealgoritmer henter information fra indekset, når en bruger søger efter noget via for eksempel google.com eller google.dk.
Søgeforespørgsler sendes til det datacenter, som er nærmest, så brugeren får svar så hurtigt som muligt.
Når der foretages ændringer i søgeindekset – for eksempel at nye websites kommer til eller fjernes – skal disse ændringer reflekteres på tværs af alle Googles datacentre verden over, så alle brugere får søgeresultater fra den nyeste version af indekset.
Det at holde søgeindekset ens på tværs af alle datacentrene er et ganske omfattende arbejde ifølge Google. For tjenester, som bruges af mange brugere, starter de gerne udrulningen på ét datacenter og fortsætter videre, til alle datacentrene er opdateret.
Tog mange dage at fikse
Det var i forbindelse med en sådan opdatering af søgeindekset, at det gik galt fredag den 5. april i år. Idet indekset blev opdateret ved nogle af datacentrene, blev »et lille antal dokumenter« ved en fejl droppet fra indekset.
Ifølge Google blev hændelsen hurtigt opfanget af Googles ingeniører, som var på vagt, og selskabet fik også tilbagemeldinger via sociale medier.
»Som et resultat var vi i stand til at begynde at tilbagestille søgeindekset til forrige stabile tilstand i alle datacentrene bare få timer efter, at problemet blev afdækket (vi har sikkerhedskopier af vores indekser våre i tilfælde af, at sådan noget sker),« skriver selskabet.
Det at genoprette Googles gigantiske søgeindeks er ikke just et lille arbejde, og det var først den 7. april – to dage efter at problemerne startede – at Google kunne melde, at man begyndte at nærme sig normaltilstande igen.
Den 11. april var selskabet sikker på, at alle datacentrene havde en komplet søgeindeks.
Følgefejl i flere uger
På grund af fejlene i søgeindekset kunne mange brugere også melde om problemer med Google Search Console, et værktøj, som bruges til blandt andet at holde øje med søgemaskine-trafik til egne websites.
Search Console henter dataene fra sin egen database, som er delvist bygget op af information, som hentes fra søgeindekset.
Da Google skulle tilbagerulle til en tidligere version af søgeindekset, måtte de sætte opdateringen af Search Console-databasen på pause.
Siden det tog flere dage at tilbagerulle søgeindekset, valgte Google at vente med at fikse Search Console-databasen, til de var sikre på, at søgeindekset var i orden.
Den 15. april meldte Google, at der var problemer med søgekonsollen, og først den 28. april var også søgekonsollen i orden igen. Dette blev så kommunikeret på Twitter den 30. april.
Det skulle med andre ord tage mere end tre uger, fra indeks-problemerne startede, til alle følgefejlene var rettet op.
Google siger nu, at de i fremtiden har planer om at dele relevant information om denne type problemer endnu hurtigere, både via sociale medier og gennem Search Console-værktøjet.
Artiklen er fra digi.no.

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.
Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.
Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.
Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.