Google Analytics – strax värdelöst

Google T-rex Doodle

Google meddelade under gårdagen att alla inloggade användare kommer söka krypterat. I förlängningen betyder det att Google Analytics och alla andra spårningsverktyg inte längre kommer kunna mäta vilket sökord som använts av dessa användare för att hitta en sida. Själva säger Google att det är för att skydda integriteten hos användarna men åtminstone den här sökmotoroptimeraren är skeptisk.

Genom att flytta söknignar från alla inloggade användare till HTTPS och kryptera sidan (vi är inte hundra procent säkra men utgår från att det handlar om den referralstring som kommer med då du lämnar Google) kommer sökordet döljas för alla analysprogram, inklusive Googles eget Analytics.

I ett uttalande på Googles officiella blogg hävdar man att det är en minimal påverkan, vi kommer ju fortfarande få veta att de kommer från Google. De vill också påskina att det är ett mycket litet antal användare som är inloggade, detta trots kraftigt med reklam för Google Plus och ett mycket utbrett användande av Gmail.

Varför inför Google krypterad sökning?

Det är svårt att tro på att det handlar om användarens integritet, det går inte att få ut särskilt mycket specifik data om en användare annat än vad denne sökt på för att hitta din sida. En rimligare tolkning är väl att Google inte vill dela med sig av en massa gratis data, nämnde jag att Sponsrade Länkar fortfarande kommer gå att spåra?

Om nu integriteten helt plötsligt blivit viktigt för Google (det är förstås en viktig fråga) borde inte den gälla för sponsrade likväl som för organiska klick?

33 kommentarer på "Google Analytics – strax värdelöst"

  1. Döden för analytics och ärligt talat ett ganska trist sätt att låsa in information. =/


  2. Det känns inte helt omöjligt att det också finns en koppling mellan den här nyheten och ryktena om en betalversion av Analytics.

    Det skulle vara ett ganska stort säljargument om man i betalvarianten åter fick den här datan.

    Bara rena spekulationer såklart…


  3. Bra inlägg, det är onekligen oroväckande. Tippar också på att betalversionen har inflytande över den här justeringen.

    / Gustav


  4. Tänkte lite som Aaron och Gustav, men det vore väl lite väl magstarkt att först hävda att det är för att skydda integritet och sedan paketera allt för försäljning istället?


  5. Om jag inte minns helt fel så kan man bara se domänen i referer fältet (http header) när man kommer ifrån en säker anslutning, således är det en teknisk spärr.
    Denna skulle kunna övervinnas om G skickade med söksträngen som en parameter, men endast då.
    Kan någon rätta mig om jag har fel ang referer och https?


  6. Det här låter inte som bra nyheter för alla oss små e-handlare som knappast är beredda att betala för något vi tidigare fått gratis


  7. Christian:
    Ja, precis.
    Det som är nyheten är att Google kommer sluta att skicka med söksträngen för de som är inloggade.

    Problemet är alltså inte att de inte kan visa den här datan, utan att de väljer att inte göra det .


  8. @Aaron hmm, detta betyder med andra ord att vi inte kommer att kunna fånga upp dessa sökningar med hemmabyggen, så vida inte vi kan lista ut hur de skickar söksträngen.
    Jobbigt…


  9. Christian:
    Ja, alltså, de kommer inte skicka söksträngen alls, så nej, det kommer inte gå att få fram det med hemmabyggen heller. Tyvärr.


  10. Verkligen tråkigt om det stämmer att de kommer sluta skicka med intressanta url-parametrar.

    Nu kanske jag har fel men det som känns mest intressant är dock att det högst troligt inte är för integriteten (som var syftet enligt Google).

    I varje fall inte om man kollar på https://encrypted.google.com/ där parametrar följer med i url vid en sökning, men som tyvärr inte skickas med till deras gateway som ligger mellan SERP-resultatens länkar och aktuell sajt, den som för övrigt blir slutgiltiga referer’n för oss som driver sajterna).

    Minst sagt trist att Google vill försvåra eller dölja data för SEO’s och webbansvariga!

    Om det slutgiltigt blir som Google uttalat sig så blir det svårt att följa upp vilka sökord/sökfraser i longtail som ger någon trafik. För övrigt så tappar man ju även funktionaliteten att se på ett ungefär vilken placering respektive besökare hittat sökordet på (parametern ”cd=”).

    Jag skulle gissa på att trafik i form av scraping kommer öka markant mot Google pga deras beslut.

    Vid sådana här beslut från Google så önskar man att det fanns en mer jämn fördelning av marknadsandelar för sökmotorer så att man inte måste tillförlita sig på stora G 😉

    Tack för övrigt för en väldigt bra och uppdaterad blogg om SEO!


  11. @Aaron Satt just och diskuterade detta med en Adwordskonsult, antagligen så kommer de bara att skyffla med söksträngen som en parameter vid adwordsklick, att skapa en parameter för de övriga 80% av klicken som skall fångas upp skulle vara extremt dyrt m tanke på trafikmängden.
    Tycker bara att det är lite synd..


  12. Om jag har försått rätt så spelar det ingen roll om det så är analytics eller något annat trackingsystem. Du kan inte se http-reffer när du går ifrån https till http om jag inte minns fel.

    Anledning till att man kan fortsätta se CPC är ju snarare pga att man pekas om ett antal gånger mellan googles egna servrar innan man når webbplatsen. Så senaste ”URL:en” är en http. T e x. http://goo.gl/ZeugU

    Hade CPC-klicket skett utan att man pekas om mellan googles egna serverar hade inte heller det gått att spåra.


  13. …men Google kommer ju fortfarande bjussa på otroligt välsvarvad data i Webmaster Tools, data som man i Webmaster Central Blog slår sig för bröstet för och minsann påpekar att man få hem som .CSV. Det ni!

    Features:

    ”-View the top 1000 daily search queries and top 1000 daily landing pages for the past 30 days.
    -View the impressions, clicks, clickthrough rate (CTR), and average position in search results for each query, and compare this to the previous 30 day period.
    -Download this data in CSV format”

    ^^


  14. @Rex
    Webmaster Tools ger en väldigt skev bild av verkligheten.
    Har sett siffror på att det kan diffa upp till 30% i felmarginal vilket är alldeles för högt för att det skall vara användbart.


  15. @Rex

    I varje fall jag vill ha dagsfärsk statistik för sökord och inte 3-5 dagar gammal.

    Precis som Cristian sa så har Webmaster Tools en för hög felmarginal.


  16. Pingback: Don't be evil | GFD Webbyrå
  17. Då var det roliga slut…. Jag får inte upp någon PR i seoquake och mitt seo spyglass ser knäppt ut.


  18. Just PR är faktiskt för att de bytt adress till datan. Gissar att quake inte hunnit uppdatera än (kan prova installera om toolbaren).


  19. SEOQuake uppdaterades samma dag (6:e okt) som Google ändrade URL:n. Testa att ominstallera programmet så ska det nog fungera igen!


  20. Pingback: Hur tänkte Google nu..? | Blue Cow
  21. Pingback: Nyheter om Google Analytics.. och en helt ny heat map! — SEO1
  22. @Elina Det kom en uppdatering för drygt en vecka sedan till SpyGlass som fixar PR.


  23. Vad tror ni om analysverktyget Piwik som är gratis? Den har pagerank 10 så Google verkar gilla det.


  24. Pingback: Gåtan Google - En Elak Jävel
  25. Daniel, tyvärr blir problemet det samma där eftersom Google inte kommer dela med sig av datan från resultaten.


  26. Pingback: Google krypterar sökresultat | MediaAnalys Blogg - Internetmarknadsföring
  27. Ja det är lite tråkigt faktiskt!
    Det värsta är väl, att andra analysverktyg, tex. statcounter inte heller kan läsa av informationen eftersom det är själva refferal-strängen som blir oläslig?


  28. Pingback: Don't be evil | GFD Webbyrås Blogg
  29. Roligt såhär i efterhand att gå tillbaka och läsa gamla SEO-nyheter från ”stenåldern”. Vissa förväntade utfall hände, andra inte. I detta fallet skulle jag inte säga att det blev så riktigt, va? 🙂


  30. Håkon,

    Nja, värdelöst är väl att ta i kanske 🙂 Men en stor del av värdet av Google Analytics från ett SEO-perspektiv gick förlorad med denna försämring.


Kommentarsfältet är stängt.