Sökmotorkonsult.se

Mycket är bra, oändligt är farligt

Oändlig

Jag har stött på allt fler situationer med riktigt stora siter som tar klivet över till att bli oändligt stora siter. Det här är en viktig gräns och att ta klivet kan vara något som mycket väl ger en tillfällig boost för att sedan störta. I den här posten tar vi en lite närmare titt på vad som kan hända.

När jag pratar om oändligt stora siter i den här posten så är det inte bildligt utan bokstavligt, alltså siter som du kan fortsätta klicka på länkar tills dess det tar slut med plats på internet och ändå komma till nya urler hela tiden. Det handlar förstås om dynamiskt genererade sidor på ett sånt sätt att det är möjligt att skapa just oändligt med innehåll. Vi kan ta en titt på det allra enklaste av exempel:

Multiplikationssiten

Tänk dig en site som kan multiplicera två tal. På startsidan har du 10 länkar märkta 1 till 10. Om du klickar på 1 så kommer du till en sida som visar 1 x 1 = 1 och om du klickar på 2 kommer du till en sida som visar 1 x 2 = 2. Väl inne på sida två har du återigen tio länkar märkta 1 till 10. Om du klickar på 3 där kommer du till sidan som säger 2 x 3 = 6 och där får du samma val igen. Vips så har vi skapat en oändlig site.

Wikipedia å andra sidan är en väldigt stor site, med massor, nästan oöverskådligt många, sidor. Skillnaden mellan Wikipedia och multiplikationssiten (det finns andra skillnader med men det är inte så intressant för den här posten) är att Wikipedia visserligen har ett stort antal sidor men det är begränsat. Det skulle gå väldigt lätt att skapa oändligt med sidor på Wikipedia med, t ex kan man låta Google indexera sökresultat på den.

Vad är risken?

Om du sitter med en site med relativt mycket innehåll men känner att du inte hinner fylla på i tillräcklig takt för att kunna ta positioner på alla de sökord du vill, du saknar landningssidor helt enkelt. Då är det lätt att lockas av tanken att automatiskt generera massor av sidor. Det är inget fel i det, bra genererade sidor är bra och du kan få en boost i trafik snabbt. Om sidorna inte riktigt håller måttet så kommer du tappa trafiken igen däremot. Om de dessutom råkar vara oändligt många kan du mycket väl komma till en gräns där du inte längre får någon trafik, Google riskerar att tröttna på dig.

Det här gäller särskilt om man kan skriva in vilken URL som helst, vilket ofta är fallet i sådana här situationer. Sökresultaten på den här bloggen är ett bra exempel https://www.sokmotorkonsult.se/?s=magnus+was+here där du kan byta ut magnus+was+here mot vad som helst. Här är det inget problem eftersom det inte är saker vi indexerar men om jag skulle låta sökresultaten länka till varandra så skulle det skapa stora bekymmer.

Slutsatsen

Det kan vara lockande att skapa enorma mängder innehåll men se till att begränsa dig när du gör det. Det behöver inte ens handla om oändligt innehåll, om du försöker skapa mer innehåll än din databas har intressant information till kan det gå åt skogen. Var dessutom extra noga om du riskerar passera gränsen från mycket till oändligt.

Sidan är senast uppdaterad 2014-03-19

4 kommentarer

  1. Ett annat bra exempel på detta ”problem” är kalendrar som tillåter en användare (och även Googlebot så klart) att surfa hur långt fram i tiden som helst. Här riskterar du även att din site har väldigt mycket duplicate content, då man ofta kan nå kalendern över hela siten.

    Kommentar av Jesper Wallin

  2. Bra tajming på ditt inlägg, har en relevant frågeställning.

    Har lagt ut en förstaversion av jobbevakning på:
    http://www.dindatakonsult.se/karriar
    Där listas en massa aktuella jobb som är relevanta för min webbplats.

    Varje jobb har en direktlänk till källan samt en länk till en detaljsida som innehåller en kort summering av platsannonsen m.m. För detaljsida, klicka på Detaljer under varje platsannons.

    Denna lista uppdateras dagligen och varje platsannons får alltså en egen sida. Det innebär att väldigt många (1000+) sidor ligger i rotation, dvs gamla annonser trycks så småningom ut ur systemet och skapar alltså 404:or.

    Med denna bakgrund, vad anser du om fördelar/nackdelar om denna typ av undersidesskapande. Är det en form av ”oändlighet”?

    Tack på förhand!

    Kommentar av Marcus Eklöf

  3. Tänkte som Jesper på faran med mycket duplicate. Att google ”tröttnar på en” är ju inte helt konkret, är det duplicate i dina ögon eller något annat som gör att algoritmen straffar den här typen av sajter?

    Kommentar av Jonas

  4. Marcus, nej tycker nog inte att det är farligt men frågan är hur du ska ta hand om alla urler som försvinner, 404 är kanske inte det ultimata.

    Jonas, det är inte duplicate som är problemet jag beskriver men det är ju ett relaterat problem. Om du sorterar datan i en databas oändligt många gånger blir det ju förstås väldigt likt på en del ställen.

RSS feed for comments on this post.

Innan du kommenterar var vänlig och läs igenom reglerna för kommentarer

DuckDuckGo

Kan DuckDuckGo hota?

Det görs mer än 100 miljoner sökningar om dagen på DuckDuckGo. Innebär detta att Google, Bing och andra sökmotorer ska börja se DuckDuckGo som ett reellt hot?

CPM - cost per mille

Vad är en bra CPM?

Är 72 en bra CPM på Facebook? I denna artikel skriver vi om fyra olika saker som påverkar hur mycket du kommer betala i CPM när du annonserar i sociala medier.

SEM-året 2021

Vår head of SEM Jonathan Olsson summerar Google Ads-året 2021. Allt från ändrade matchtyper till cookie-döden.

SEO-året 2021

SEO-året 2021

2021 börjar lida mot sitt slut och det har blivit dags att sammanfatta året som gått ur ett SEO-perspektiv.

Victor Alenlid, Nicklas Krus och Michael Wahlgren i avsnitt 78 av Sökpodden

#78 Läckor

Då var det dags för årets sista avsnitt av Sökpodden. Denna gång är våra ämnen risker inom SEO, vi pratar läckor på Google Ads och sist men inte minst dyker vi ned i annonsering på Pinterest. Du lyssnar väl?