Google forsøger faneblads-krumspring for at undgå gigantisk søgemaskinebøde

Striden mellem EU’s konkurrencemyndigheder og Google fortsætter. Google har netop afleveret endnu et forslag til, hvordan firmaets søgemaskine kan blive lovlig.

Skal man finde noget på nettet, sker det i EU-landene næsten altid via Googles søgemaskine, der har 90 procent af markedet.

Men ifølge Googles konkurrenter, herunder Microsoft, har Google misbrugt den position til at forskelsbehandle og for eksempel præsentere egne tjenester øverst i søgeresultaterne. Den sag har nu kørt hos EU’s konkurrencemyndigheder, siden klagen blev indleveret i november 2010, og nu har Google endnu engang afleveret et forslag til forlig, hvor konkurrenterne bliver mere tilgodeset. Det skriver The Register.

Forslaget, hvor Google lige giver lidt flere indrømmelser end i sidste forslag, er en del af en juridisk nervekrig med høje indsatser. Hvis EU’s kommissær på området, Joaquin Almunia, ender med at afvise Googles tilbud, kan det ende med en gigantisk bøde til Google på op til 10 procent af Googles samlede omsætning.

Forløbet med et forslag fra Google, der så bliver afvist af EU-kommissæren, er nu blevet gentaget mange gange, senest i juli, og spørgsmålet er, hvor længe det kan fortsætte, før forhandlingerne bliver stoppet og bødeblokken fundet frem.

Læs også: EU om Googles tiltag for at undgå monopolsag: Det er en ommer

Googles konkurrenter, der har samlet sig i gruppen Fairsearch, er allerede godt utilfredse med den tålmodighed, som EU-kommissæren udviser i forhandlingerne med Google. Kommissær Almunia har selv meldt ud, at han håber på at kunne nå frem til et forlig, og at det vil kunne ske inden for de næste par måneder, hvis Googles seneste forslag er tilfredsstillende.

Accepterer konkurrencemyndighederne Googles forslag til forbedringer, vil internetgiganten ikke få juridiske skrammer i lakken og bliver ikke dømt skyldig i at have misbrugt sin position på markedet. Til gengæld er Google bundet af aftalen de næste fem år.

Udover problemet med forskelsbehandling i søgeresultaterne - som Google vil løse ved at vise alternativer på en slags faneblade ved siden af - har konkurrenterne også klaget over, at deres data bliver høstet af Google, som så bruger dem uden tilladelse. Det kan for eksempel være brugernes gennemsnitlige bedømmelse af en restaurant på Tripadvisor.com, som Google henter og viser på sin egen side om restauranten.

Googles forslag til en løsning er, at firmaerne vil kunne markere områder af deres sider, som Google så ikke vil høste data fra.

Læs også: Google ændrer på søgemaskinen efter EU-bødetrusler

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Kommentarer (22)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
#2 Kenneth Mortensen

Når man kigger på listen over de virksomheder som er med i Fairsearch falder det lynhurtigt i øjene at flere af dem er virksomheder som kunne have fået færre søgeresultater fordi Google fremhæver egne services først. Det er lidt svært at give en objektiv holdning til hvad andre virksomheder med samme markedsandele på søgefronten ville gøre hvis de var i samme situation som Google og besidede det samme antal services. En ting er jeg dog ret sikker på, man ville forsøge at udnytte flere services således de i bedst muligt samspil kunne udnyttes af brugerne. Dette synes jeg Google klare ret godt - alt taget i betragtning.

Hvis vi kigger på Microsoft som må være en mere eller mindre direkte konkurrent i denne sammenhæng ville det alt andet lige være mærkeligt hvis de ikke deltog i fairsearch sammenfatningen. Microsoft besider om nogen de samme typer produkter som Google, deres anvendelse af meget lig hinanden. Den store forskel er dog at Google besider store andele i søgemaskine kampen og Microsoft derfor ikke på samme måde som Google vil nyde gode af de favorable søgeresultater.

Jeg vil derfor mene at Microsoft og flere af de andre store aktører i Fairsearch burde fokusere mere på deres egne services i stedet for at fokusere på Googles brug af egne produkter.

  • 7
  • 4
#3 Flemming Frandsen

Naturligvis og det er sådan som det skal være.

Faktisk er der ingen grund til at tro at der skulle være nogen form for forklædning.

Hvis man ikke ønsker at søgemaskiner skal læse det data man udstiller via sin web server, så skal man skrive den instruktion i robots.txt, ikke sagsøge folk.

  • 3
  • 1
#5 Jesper Wøldiche

Mit gæt vil være, at der er tale om en udvidelse af robots.txt med ekstra instrukser, som gør det muligt at få indekseret sit indhold i søgemaskinen (en nødvendighed for fx Tripadvisor), men uden at søgemaskinen høster struktureret data (RDFa, OWL, microdata eller via algoritmer) til visning andet steds, så indholdssites bibeholder behovet for at få brugerne ind på sitet.

Jeg kan ikke lige beslutte mig for, om det giver mening - hvorfor fx bruge mikrodata eller et RDF endpoint, hvis man ikke ønsker at få høstet sine data?

Der er formodentlig primært tale om data, som ikke har mikrodata-information (eller mikroformats, RDFa osv.), men som Googles algoritme alligevel kan strukturere og høste. Der kan selvfølgelig også være argumenter for at strukturere indhold med henblik på læsning af browsere, plugins mv.

  • 2
  • 0
#6 Jacob Pind

problemet for de andre søgemaskiner er jo at googles egen tilbud, youtube, google groups med mere, ikke er tilgæneligt for deres crawler. Yahoo er vel den eneste konkurent som i kraft af Flickr i har nogen størrer services som de kunne bruge som bargain chip, Microsofts bing har jo intet af den art .

  • 0
  • 0
#7 Jesper Lund Stocholm Blogger

Hvis man ikke ønsker at søgemaskiner skal læse det data man udstiller via sin web server, så skal man skrive den instruktion i robots.txt, ikke sagsøge folk.

Nu nævnes Tripadvisor ovenfor, og hvis man kigger på deres robots.txt, så er den ret omfattende, og det tyder på, at den lukker totalt af for alle crawlere.

Hvis resultater fra deres site ender på google.com, så kunne det jo tænkes, at for tripadvisor, så respekterer Google ikke robots.txt ?

  • 4
  • 1
#8 Jesper Lund Stocholm Blogger

Når man søger efter "email" så lægger hotmail faktisk først. Generelt så lægger gmail meget langt nede i søgeresultaterne, uanset søgeord i forbindelse med email,

Hotmail ligger også øverst hos mig med GMail som nummer to. Husk dog på, at søgning på Google ikke er deterministisk ifht at sammenligne de resultater, som folk får. Resultaterne er jo bla. baserede på hvad Google i forvejen ved om dig.

  • 4
  • 0
#11 Adam Tulinius

"Googles forslag til en løsning er, at firmaerne vil kunne markere områder af deres sider, som Google så ikke vil høste data fra."

Den funktionalitet har Google allerede, den er bare ikke (mig bekendt) veldokumenteret fra Googles side. Den er implementeret v.h.a. magiske kommentarer direkte i en sides html, der bruges til at slå indeksering fra og til.

Denne side har en uddybende forklaring: http://perishablepress.com/tell-google-to-not-index-certain-parts-of-you...

Edit: Her er Googles egen dokumentation: https://developers.google.com/search-appliance/documentation/46/admin_cr...

  • 0
  • 0
#12 Jesper Lund Stocholm Blogger

Det er nemt at omgå hvis man bruger Chrome som browser: Åbn et inkognito-vindue og søg derfra

Undskyld - men det er lidt naivt. Google bruger efter sigende op til 50 "signaler" til at identificere brugere unikt og cookies etc er kun en meget lille del af dem. Se blot på, hvilke informationer du videregiver på http://www.requestservervariables.com/values - også i Incognito-mode i Chrome.

Jeg ville i hvert fald være uhyggeligt påpasselig med at forlade mig på, at hvis jeg bruger Incognito-mode, så "ved Google ikke hvem jeg er".

Et eller andet sted faldt jeg engang over en side, der kunne fortælle dig, hvor "unik" du er ved blot at analysere de data din browser sender med (uden cookies), men jeg kan ikke lige hitte siden nu. Det var bemærkelsesværdigt, at selvom flere millioner (som jeg husker det) havde prøvet siden, så kunne de stadig unikt identificere min browser - og dermed indirekte mig) på siden.

  • 3
  • 0
#14 Jesper Lund Stocholm Blogger

Tænker du på https://panopticlick.eff.org

Det kan jeg faktisk ikke huske, men siden illustrerer meget godt min pointe. Det er interessant at se, at både min liste over browser-plugins og system-fonte er 100% unikke i deres sample database på +3mil browsere. Også interessant er det at se, at hvis jeg slår Incognito til, så halveres min unikhed på disse signaler til "kun" at være 1 ud af 1.5mil brugere.

Siden bruger dog ikke min IP-adresse til anlysen, og tages denne med, er jeg stadig 100% unik ifht de informationer min browser medsender ... uden overhovedet at tælle cookies med.

  • 1
  • 0
#15 Martin Nyhjem

Hvis man læser klagen fra tripadvisor bliver det lidt mere tydeligt hvad de brokker sig over. Som jeg læser det, så er de ikke sure over at blive indekseret på google.com. Det vil de faktisk gerne, men de er sure over at google bl.a. pinner de reviews ud, som tripadvisor har på deres hjemmeside, og præsentere disse resultater som deres egne på f.eks. places.google.com. Places er en konkurrent til tripadvisor, og det at google stjæler indhold og bruger det på egne services uden at få lov til det, kan man godt forstå de bliver sure over. Tripadvisor mister reklameindtægter, og indtægter fra viderelink til de sider de har reviews fra når de ikke får nogen brugere længere. Tænk hvis nogen lavede siden billighardware.dk, og alle resultater og reviews kom direkte fra edbpriser.dk, blot med et andet design. En sådan side ville blive lukket meget hurtigt. Tripadvisor er så blevet ekstra sure fordi google valgte helt at fjerne alle links til deres side, da de brokkede sig over tyveriet. Altså ikke bare reviews fra places, men også almindelige søgeresultater fra google.com. Dette mener tripadvisor er at misbruge dominans på søgemaskine markedet til at hjælpe egne produkter i andre kategorier. CEO fra Yelp har også udtalt sig om lignende adfærd fra googles side: "One of the themes throughout Stoppelman’s testimony was Google’s mandate that if Yelp wanted its review snippets removed from Google’s Place pages, then Google would remove it entirely from its search results as well. This, Stoppelman says, is a false choice, because nobody can afford not to appear in Google search."

"Google forces review websites to provide their content for free to benefit Google’s own competing product – not consumers. Google then gives its own product preferential treatment in Google search results"

Så de her leverandøre får altså reelt et valg mellem slet ikke at optræde på den mest brugte søgemaskine i verden, eller levere gratis indhold til deres konkurrent.

  • 5
  • 0
#17 Jacob Nordfalk

Undskyld - men det er lidt naivt. Google bruger efter sigende op til 50 "signaler" til at identificere brugere unikt og cookies etc er kun en meget lille del af dem. Se blot på, hvilke informationer du videregiver på http://www.requestservervariables.com/values - også i Incognito-mode i Chrome.

Det ser jo skræmmende ud, der er en farlig masse data, men det eneste relevante er altså den der hedder ALL_RAW:

'Connection: Keep-Alive Via: 1.1 IFWA2 Accept: text/html,application/xhtml+xml,application/xml;q=0.9,/;q=0.8 Accept-Language: da,eo;q=0.8 Host: www.requestservervariables.com User-Agent: Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/29.0.1547.65 Safari/537.36'

Alle de andre handler altså om serveren, ikke om klienten, eller er opsplitninger af ALL_RAW. OK, der er også min IP-adresse :-)

  • 1
  • 0
#18 Jesper Lund Stocholm Blogger

Alle de andre handler altså om serveren, ikke om klienten, eller er opsplitninger af ALL_RAW.

Jeps - det er jeg klar over - alle andre "HTTP-request variable" er delmængder af RAW.

... bortset fra systemfonte, der er hentet ud via flash og så - som du påpeger - IP-adressen, naturligvis inklusivt forwardede X_FORWARDED_FOR (eller hvad den nu hedder) NAT-adresser.

  • 0
  • 0
#21 Adam Tulinius

Jeps - men det er stadig NAT-tildelte adresser, der dermed eksponeres ... uanset om det måtte være browseren selv eller en proxy, der sætter dem.

  • kommentar omkring nærmest ikke-eksisterende brug af tradionelle proxy-servere i folks dagligstuer
  • erkendelse af at der er stakler der arbejder på netværk hvor eneste hul ud til omverdenen er gennem en proxy
  • diskussion om kommentaren og erkendelsen

:-)

  • 0
  • 0
Log ind eller Opret konto for at kommentere