Google spam in 2011

Home / Google spam in 2011

Vandaag heeft Matt Cutts een blogpost online gezet waarin hij beschrijft wat (en dat) er maatregelen genomen worden tegen google spam en zogenaamde content farms en sites die proberen met Google te spelen. Ik haal er even paar citaten uit en met wat ik hier in Nederland zie gebeuren, overigens word er vooral gesproken over de Engelstalige index en weten de meeste SEO’s wel dat er een behoorlijk verschil zit per taal in de algoritmes en haar invloeden.

As we’ve increased both our size and freshness in recent months, we’ve naturally indexed a lot of good content and some spam as well. To respond to that challenge, we recently launched a redesigned document-level classifier that makes it harder for spammy on-page content to rank highly. The new classifier is better at detecting spam on individual web pages, e.g., repeated spammy words—the sort of phrases you tend to see in junky, automated, self-promoting blog comments.

Yupz, het was mij inderdaad opgevallen dat zoekterm dichtheid en gerelateerde woorden de afgelopen 4 a 5 maanden stukken beter zijn gaan werken, dus ik geloof best dat ze wat nieuwe algoritmes hebben geinstalleerd, in de praktijk zie je daar nog niet bijzonder veel van terug in de Nederlanse index/algoritmes. Aan de andere kant horen we ook genoeg affiliates die gekelderd zijn met hun sites, waarvan verwacht werd dat het met de hand gedaan werd, ondanks dat Google daar geen fan van is. Dit zou natuurlijk ook de invloed van het nieuwe algoritme kunnen zijn. Interessant zou zijn om eens te kijken naar de sites die een behoorlijke keldering hebben meegemaakt ten op zichtte van de sites die nu nog ranken met in mijn ogen een behoorlijke zoekterm dichtheid.

And we’re evaluating multiple changes that should help drive spam levels even lower, including one change that primarily affects sites that copy others’ content and sites with low levels of original content.

Ah, doei contentscrapers. Dat is echt goed nieuws, herkauwen van content zit echt niemand op te wachten.

As “pure webspam” has decreased over time, attention has shifted instead to “content farms,” which are sites with shallow or low-quality content. In 2010, we launched two major algorithmic changes focused on low-quality sites. Nonetheless, we hear the feedback from the web loud and clear: people are asking for even stronger action on content farms and sites that consist primarily of spammy or low-quality content.

En nog een verandering van sites die alleen maar content publiceren om advertenties te kunnen blijven draaien of alleen maar gewoon long tail verkeer binnen kunnen halen. Sites die dus zogenaamde content farms zijn. In mijn ogen prima om hier wat aan te doen en ook iets dat serieuze SEO’s ook al tijden adviseren, echter worden ze soms voorbijgestreefd door de realiteit met 450 links van startpagina klonen. Dat blijft een moeilijk verhaal om te verkopen (of verklaren).

Conclusie

We kunnen rustig stellen dat Google hard bezig om haar index zo volledig en correct mogelijk te krijgen. Dit gaat ten kostte van de trukendoos van veel partijen, welke nu toch weer op zoek moeten naar andere manier om hun website te vermarkten. Ik zou aanraden om zeker  in de social media te gaan rondkijken, er zijn zoveel kansen je moet er alleen mee aan de slag willen.

Ik ben wel benieuwd hoe jullie hier tegenaan kijken?

Was dit artikel behulpzaam?

Bedankt voor je feedback!

12 reacties op “Google spam in 2011”

  1. seolabnl avatar

    In november werd het aangekonigd tijdens de Pubcon in Las Vegas dat Google hier aan werkt. Ik ben blij met deze ontwikkeling. Seo bedrijf Seolab heeft veel websites in diverse branches door spam en trukken snel zien stijgen en we zien ze nu echt verdwijnen.

    Meerdere malen hebben we geconstateerd dat de resultaten tijdens een grote Google update op een iPad een langere tijd verschillend zijn. Nu al 3 dagen.
    Zou het de nieuwste Google SERP versie zijn zonder spam?
    http://www.seolab.nl/grote-google-update-in-januari_nieuws-58.html

    1. Roy avatar

      Imre, zou je de volgende keer onder je eigen naam willen reageren ipv onder je bedrijfsnaam? Verder wel leuke opmerking over results op ipad. Heb je daar meer data over?

      1. Imre Bernath avatar
        Imre Bernath

        Roy,

        Als gast een post plaatsen werkte niet op de iPad vandaar.

        Het is een constatering vanaf augustus en zoals al eerder constateert is dat Google haar browser gebruikt om bepaalde features te testen, zou het best kunnen dat ze nu ook de iPad gebruiken.
        De iPad is natuurlijk een mooie manier om te testen zonder dat iedereen het ziet, maar ik ben niet van Google dus ik weet het niet zeker.

        Met vriendelijke groet,

        Imre Bernath
        SEOlab

  2. seolabnl avatar

    Google streeft ernaar om elke zoekopdracht te beantwoorden met de meest relevante zoekresultaten. Google produceert de beste zoekresultaten op basis van heldere en duidelijke websites. Dergelijke sites zijn voor zowel gewone bezoekers als voor zoekmachines het beste te begrijpen. Helaas hebben niet alle webmasters het beste voor met de Google-gebruikers. Dit is informatie van google voor webmasters.

  3. Lambertus Kobes avatar
    Lambertus Kobes

    Er zijn nu al mogelijkheden genoeg om door een duidelijke combinatie van D-Content en eigen Content genoeg verkeer te genereren.

    Hopelijk worden de 100% farms inderdaad aangepak en dan ook op de nieuws sektie van de site (want die was de afgelopen weken zeer slecht!)

    1. Roy avatar

      Ze zouden eens kunnen beginnen met het niet mee meetellen van links uit duplicate content 😉

      1. Lambertus Kobes avatar
        Lambertus Kobes

        Tja ook hier is het weer niet altijd negatief, goeien leiden eronder. Analyse van een site maken, waardoor je in ieder geval die 100% Spam sites eruit kunt halen. (Dit zijn in mijn ogen Sites die geen enkele vorm van eigen content hebben en updates alleen maar uit D-Content halen.) En dan nog is het moeilijk om dit te filteren als D-Content ten dele wordt verandert en door Users wordt aangevuld.

        Heb zelf bijvoorbeeld wel een paar sites, waar gebruikt wordt gemaakt van D-Content in Combinatie met eigen Content, die wel goed werken en waar de laatste tijd zeker geen vernadering in te zien is. Door andere On-Page zaken eigenlijk + trend laten zien.

        Ben wel benieuwd hoe ze dit gaan aanpakken. We zullen het zien.

        1. Roy avatar

          Ik zie niet in wat hier negatief aan zou zijn, misschien zie ik even iets over het hoofd hoor? Vanuit een Google en gebruikers perspectief lijkt me dat volledig valide.

      2. Lambertus Kobes avatar
        Lambertus Kobes

        Stel ik ben Fan van een Voetbalclub en heb een nieuwsfeed van de Club ingebouwd met dus D-Content. Moet Google deze links dan links laten liggen?

        1. Roy avatar

          In mijn ogen is het niet echt een ‘redactionele’ link en staat hij daar alleen bij de gratie van de blogfeed, dus an sich zou het niet raar zijn deze niet mee te tellen…

  4. Google blijft vechten tegen spam, maar wat betekent dat? | E-difference online marketing weblog

    […] aan te scherpen zodat spamresultaten minder goed kunnen ranken. Een ander belangrijk punt, zoals Chapter 42 al opmerkt, is dat contentscrapers harder worden aangepakt. Contentscrapers struinen het web af en stelen […]

  5. Alain avatar
    Alain

    Google’s vermeende vooruitgang in het bestrijden van spam blijkt toch niet zo’n vaart te lopen: http://www.seomoz.org/blog/how-organized-crime-is-taking-control-of-googles-search-results

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.