Google forsøger faneblads-krumspring for at undgå gigantisk søgemaskinebøde

22 kommentarer.  Hop til debatten
Striden mellem EU’s konkurrencemyndigheder og Google fortsætter. Google har netop afleveret endnu et forslag til, hvordan firmaets søgemaskine kan blive lovlig.
10. september 2013 kl. 07:22
errorÆldre end 30 dage
Manglende links i teksten kan sandsynligvis findes i bunden af artiklen.

Skal man finde noget på nettet, sker det i EU-landene næsten altid via Googles søgemaskine, der har 90 procent af markedet.

Men ifølge Googles konkurrenter, herunder Microsoft, har Google misbrugt den position til at forskelsbehandle og for eksempel præsentere egne tjenester øverst i søgeresultaterne. Den sag har nu kørt hos EU’s konkurrencemyndigheder, siden klagen blev indleveret i november 2010, og nu har Google endnu engang afleveret et forslag til forlig, hvor konkurrenterne bliver mere tilgodeset. Det skriver The Register.

Forslaget, hvor Google lige giver lidt flere indrømmelser end i sidste forslag, er en del af en juridisk nervekrig med høje indsatser. Hvis EU’s kommissær på området, Joaquin Almunia, ender med at afvise Googles tilbud, kan det ende med en gigantisk bøde til Google på op til 10 procent af Googles samlede omsætning.

Forløbet med et forslag fra Google, der så bliver afvist af EU-kommissæren, er nu blevet gentaget mange gange, senest i juli, og spørgsmålet er, hvor længe det kan fortsætte, før forhandlingerne bliver stoppet og bødeblokken fundet frem.

Artiklen fortsætter efter annoncen

Googles konkurrenter, der har samlet sig i gruppen Fairsearch, er allerede godt utilfredse med den tålmodighed, som EU-kommissæren udviser i forhandlingerne med Google. Kommissær Almunia har selv meldt ud, at han håber på at kunne nå frem til et forlig, og at det vil kunne ske inden for de næste par måneder, hvis Googles seneste forslag er tilfredsstillende.

Accepterer konkurrencemyndighederne Googles forslag til forbedringer, vil internetgiganten ikke få juridiske skrammer i lakken og bliver ikke dømt skyldig i at have misbrugt sin position på markedet. Til gengæld er Google bundet af aftalen de næste fem år.

Udover problemet med forskelsbehandling i søgeresultaterne - som Google vil løse ved at vise alternativer på en slags faneblade ved siden af - har konkurrenterne også klaget over, at deres data bliver høstet af Google, som så bruger dem uden tilladelse. Det kan for eksempel være brugernes gennemsnitlige bedømmelse af en restaurant på Tripadvisor.com, som Google henter og viser på sin egen side om restauranten.

Googles forslag til en løsning er, at firmaerne vil kunne markere områder af deres sider, som Google så ikke vil høste data fra.

22 kommentarer.  Hop til debatten
Debatten
Log ind for at deltage i debatten.
settingsDebatindstillinger
16
10. september 2013 kl. 13:43

Hvorfor ikke bare spærre for hjemmesider fra nordamerikanske slyngelstater ? Så slipper vi for deres industrispionage og ensretningsforsøg Luk dog for google og m$!

15
10. september 2013 kl. 13:42

Hvis man læser klagen fra tripadvisor bliver det lidt mere tydeligt hvad de brokker sig over. Som jeg læser det, så er de ikke sure over at blive indekseret på google.com. Det vil de faktisk gerne, men de er sure over at google bl.a. pinner de reviews ud, som tripadvisor har på deres hjemmeside, og præsentere disse resultater som deres egne på f.eks. places.google.com. Places er en konkurrent til tripadvisor, og det at google stjæler indhold og bruger det på egne services uden at få lov til det, kan man godt forstå de bliver sure over. Tripadvisor mister reklameindtægter, og indtægter fra viderelink til de sider de har reviews fra når de ikke får nogen brugere længere. Tænk hvis nogen lavede siden billighardware.dk, og alle resultater og reviews kom direkte fra edbpriser.dk, blot med et andet design. En sådan side ville blive lukket meget hurtigt. Tripadvisor er så blevet ekstra sure fordi google valgte helt at fjerne alle links til deres side, da de brokkede sig over tyveriet. Altså ikke bare reviews fra places, men også almindelige søgeresultater fra google.com. Dette mener tripadvisor er at misbruge dominans på søgemaskine markedet til at hjælpe egne produkter i andre kategorier. CEO fra Yelp har også udtalt sig om lignende adfærd fra googles side: "One of the themes throughout Stoppelman’s testimony was Google’s mandate that if Yelp wanted its review snippets removed from Google’s Place pages, then Google would remove it entirely from its search results as well. This, Stoppelman says, is a false choice, because nobody can afford not to appear in Google search."

"Google forces review websites to provide their content for free to benefit Google’s own competing product – not consumers. Google then gives its own product preferential treatment in Google search results"

Så de her leverandøre får altså reelt et valg mellem slet ikke at optræde på den mest brugte søgemaskine i verden, eller levere gratis indhold til deres konkurrent.

11
10. september 2013 kl. 11:33

"Googles forslag til en løsning er, at firmaerne vil kunne markere områder af deres sider, som Google så ikke vil høste data fra."

Den funktionalitet har Google allerede, den er bare ikke (mig bekendt) veldokumenteret fra Googles side. Den er implementeret v.h.a. magiske kommentarer direkte i en sides html, der bruges til at slå indeksering fra og til.

Denne side har en uddybende forklaring: http://perishablepress.com/tell-google-to-not-index-certain-parts-of-your-page/

Edit: Her er Googles egen dokumentation: https://developers.google.com/search-appliance/documentation/46/admin_crawl/Preparing?hl=da&csw=1

6
10. september 2013 kl. 10:02

problemet for de andre søgemaskiner er jo at googles egen tilbud, youtube, google groups med mere, ikke er tilgæneligt for deres crawler. Yahoo er vel den eneste konkurent som i kraft af Flickr i har nogen størrer services som de kunne bruge som bargain chip, Microsofts bing har jo intet af den art .

4
10. september 2013 kl. 09:47

Når man søger efter "email" så lægger hotmail faktisk først. Generelt så lægger gmail meget langt nede i søgeresultaterne, uanset søgeord i forbindelse med email, hvad er problemet Microsoft?

10
10. september 2013 kl. 11:18

Søger jeg på Bing, listes:

Yahoo Gmail Hotmail

Så Microsoft manipuler næppe noget her.

8
10. september 2013 kl. 10:27

Når man søger efter "email" så lægger hotmail faktisk først. Generelt så lægger gmail meget langt nede i søgeresultaterne, uanset søgeord i forbindelse med email,

Hotmail ligger også øverst hos mig med GMail som nummer to. Husk dog på, at søgning på Google ikke er deterministisk ifht at sammenligne de resultater, som folk får. Resultaterne er jo bla. baserede på hvad Google i forvejen ved om dig.

12
10. september 2013 kl. 11:43

Det er nemt at omgå hvis man bruger Chrome som browser: Åbn et inkognito-vindue og søg derfra

Undskyld - men det er lidt naivt. Google bruger efter sigende op til 50 "signaler" til at identificere brugere unikt og cookies etc er kun en meget lille del af dem. Se blot på, hvilke informationer du videregiver på http://www.requestservervariables.com/values - også i Incognito-mode i Chrome.

Jeg ville i hvert fald være uhyggeligt påpasselig med at forlade mig på, at hvis jeg bruger Incognito-mode, så "ved Google ikke hvem jeg er".

Et eller andet sted faldt jeg engang over en side, der kunne fortælle dig, hvor "unik" du er ved blot at analysere de data din browser sender med (uden cookies), men jeg kan ikke lige hitte siden nu. Det var bemærkelsesværdigt, at selvom flere millioner (som jeg husker det) havde prøvet siden, så kunne de stadig unikt identificere min browser - og dermed indirekte mig) på siden.

17
10. september 2013 kl. 14:04

Undskyld - men det er lidt naivt. Google bruger efter sigende op til 50 "signaler" til at identificere brugere unikt og cookies etc er kun en meget lille del af dem. Se blot på, hvilke informationer du videregiver på <a href="http://www.requestservervariables.com/values">http://www.requestserverv…; - også i Incognito-mode i Chrome.

Det ser jo skræmmende ud, der er en farlig masse data, men det eneste relevante er altså den der hedder ALL_RAW:

'Connection: Keep-Alive Via: 1.1 IFWA2 Accept: text/html,application/xhtml+xml,application/xml;q=0.9,/;q=0.8 Accept-Language: da,eo;q=0.8 Host: www.requestservervariables.com User-Agent: Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/29.0.1547.65 Safari/537.36'

Alle de andre handler altså om serveren, ikke om klienten, eller er opsplitninger af ALL_RAW. OK, der er også min IP-adresse :-)

14
10. september 2013 kl. 12:16

Tænker du på
<a href="https://panopticlick.eff.org">https://panopticlick.eff.org</a&gt;

Det kan jeg faktisk ikke huske, men siden illustrerer meget godt min pointe. Det er interessant at se, at både min liste over browser-plugins og system-fonte er 100% unikke i deres sample database på +3mil browsere. Også interessant er det at se, at hvis jeg slår Incognito til, så halveres min unikhed på disse signaler til "kun" at være 1 ud af 1.5mil brugere.

Siden bruger dog ikke min IP-adresse til anlysen, og tages denne med, er jeg stadig 100% unik ifht de informationer min browser medsender ... uden overhovedet at tælle cookies med.

2
10. september 2013 kl. 09:04

Når man kigger på listen over de virksomheder som er med i Fairsearch falder det lynhurtigt i øjene at flere af dem er virksomheder som kunne have fået færre søgeresultater fordi Google fremhæver egne services først. Det er lidt svært at give en objektiv holdning til hvad andre virksomheder med samme markedsandele på søgefronten ville gøre hvis de var i samme situation som Google og besidede det samme antal services. En ting er jeg dog ret sikker på, man ville forsøge at udnytte flere services således de i bedst muligt samspil kunne udnyttes af brugerne. Dette synes jeg Google klare ret godt - alt taget i betragtning.

Hvis vi kigger på Microsoft som må være en mere eller mindre direkte konkurrent i denne sammenhæng ville det alt andet lige være mærkeligt hvis de ikke deltog i fairsearch sammenfatningen. Microsoft besider om nogen de samme typer produkter som Google, deres anvendelse af meget lig hinanden. Den store forskel er dog at Google besider store andele i søgemaskine kampen og Microsoft derfor ikke på samme måde som Google vil nyde gode af de favorable søgeresultater.

Jeg vil derfor mene at Microsoft og flere af de andre store aktører i Fairsearch burde fokusere mere på deres egne services i stedet for at fokusere på Googles brug af egne produkter.

1
10. september 2013 kl. 08:15

At give mulighed for at markere dele af en side som Google ikke må høste data fra, er det ikke bare robots.txt i en ny forklædning?

3
10. september 2013 kl. 09:06

Naturligvis og det er sådan som det skal være.

Faktisk er der ingen grund til at tro at der skulle være nogen form for forklædning.

Hvis man ikke ønsker at søgemaskiner skal læse det data man udstiller via sin web server, så skal man skrive den instruktion i robots.txt, ikke sagsøge folk.

7
10. september 2013 kl. 10:05

Hvis man ikke ønsker at søgemaskiner skal læse det data man udstiller via sin web server, så skal man skrive den instruktion i robots.txt, ikke sagsøge folk.

Nu nævnes Tripadvisor ovenfor, og hvis man kigger på deres robots.txt, så er den ret omfattende, og det tyder på, at den lukker totalt af for alle crawlere.

Hvis resultater fra deres site ender på google.com, så kunne det jo tænkes, at for tripadvisor, så respekterer Google ikke robots.txt ?

5
10. september 2013 kl. 09:55

Mit gæt vil være, at der er tale om en udvidelse af robots.txt med ekstra instrukser, som gør det muligt at få indekseret sit indhold i søgemaskinen (en nødvendighed for fx Tripadvisor), men uden at søgemaskinen høster struktureret data (RDFa, OWL, microdata eller via algoritmer) til visning andet steds, så indholdssites bibeholder behovet for at få brugerne ind på sitet.

Jeg kan ikke lige beslutte mig for, om det giver mening - hvorfor fx bruge mikrodata eller et RDF endpoint, hvis man ikke ønsker at få høstet sine data?

Der er formodentlig primært tale om data, som ikke har mikrodata-information (eller mikroformats, RDFa osv.), men som Googles algoritme alligevel kan strukturere og høste. Der kan selvfølgelig også være argumenter for at strukturere indhold med henblik på læsning af browsere, plugins mv.