Veckans fulknep – missbruka Pandan

Sky Scraper site

Googles Pandauppdatering slog mot ett stort antal content farms och gjorde det på domännivå. Det vill säga att den slog mot alla sidor på siten snarare än mot specifika sidor som de flesta andra filter gör. Det gör att man kan utnyttja det på ett ganska fult sätt.

Det är nämligen så här att det på de flesta content farms finns väldigt blandat innehåll, både bra och dåligt. Det Pandauppdateringen gör är att den straffar allt innehåll på hela siten, oavsett kvalitet. Det öppnar upp för att någon annan, inte så nogaräknad, sökmotoroptimerare skulle kunna ta positioner med samma innehåll.

Bryan Crow på WonderHowTo.com berättade idag att efter att de råkat ut för Pandan (de har en rätt typisk content farm)  och att de många scraper-sites (förklarar det begreppet lite senare) som lever på deras innehåll numer får deras trafik. Det som hänt är alltså följande: Wonder How To fyller på med massor av innehåll och syndikerar sedan ut det till ett antal partners (mot länkar kan man tänka) och de blir också skrapade. Det är alltså aktörer som tar deras innehåll från siten och återpublicerar det på sin egen. Efter Pandan så blir Wonder How To utklassade av dessa kopior i sökresultaten.

Det skulle alltså kunna vara så att Googles fina uppdatering inte gör annat än återinför scraper-sites som kungen av sökresultaten, en pånyttfödelse för en tämligen död teknik – det är inte vad man väntar sig att de skulle satsa på.

8 kommentarer på "Veckans fulknep – missbruka Pandan"

  1. Då skulle man kunna använda den tekniken för att förstöra rätt ordentligt för sina konkurrenter mao? Om man var en ohederlig människa dvs.. 😛


  2. Känns som ett bakslag, trodde att scraper-sites skulle rensas ut med Panda, de tillför ju inget.

    Jag skrivit det förut, Google har så många filter att förändringar i ett filter leder till oöverskådliga konsekvenser i andra filter, det vill säga det ena filtret vet inte hur det andra filtret påverkas.


  3. Det är ett vanligt missförstånd att Panda-uppdateringen skulle slå särskilt mot duplicate content men det var aldrig meningen.

    Jag håller med om din analys, Google har satt sig själva i en hel del problem och algoritmen är garanterat oöverskådlig.


  4. Kallas inte sånt här, falla på eget grepp? Jag kan ju inte säga att jag är förvånad. 🙂


  5. Det låter lite cyniskt men man får alltid räkna med smärre problem vid så stora förändringar. Troligtvis arbetar man för fullt på problemet idag och rullar upp ännu en uppdatering inom kort.


  6. Kunde inte Google seriekopplat alla sina datorer och simulerat detta innan de släppte ut Pandan? 🙂


  7. Då Google värnar om vart unikt material uppstått så kommer detta beteende patchas bort. Vi får se det som en tillfällighet eller bug.


  8. Fast Google har ju alltid haft problem med Duplicate Content, de hade ju även innan Pandauppdateringen riktigt svårt att bestämma vad som är original.


Kommentarsfältet är stängt.