Supplemental index & Google Sitemaps

Home / Supplemental index & Google Sitemaps

Gister had Joost een uitstekende post over Google Webmaster Tools Sitemaps en de waardevolle data die je daaruit kunt halen als je de sitemap functie niet gebruikt. Niets nieuws onder de zon maar het blijkt dat veel mensen nog niet begrijpen waarom je dat nu niet precies zou doen. Hij kwam in discussie met iemand die een miljoen pagina’s laat indexeren via sitemaps.

Vandaar nog maar gauw een spoedpost tussen door…

Waarom geen Sitemap.xml gebruiken

Het dringt bij veel SEO’s nog niet door dat Google het beste voor heeft met de webmasters door sitemaps beschikbaar te stellen, maar dat interne linkstructuur een belangrijk onderdeel is van je optimalisatie.
Als je niet weet of pagina’s moeilijk of langzaam geïndexeerd worden, dan kun je niet je interne linkstructuur aanpassen zodat ze wel genoeg interne linkwaarde krijgen om goed te gaan ranken. Dat is namelijk echt optimaliseren voor zoekmachines.

Supplemental index

Verder wordt er over de supplemental index door Matt Cutts gezegd, dat ook die pagina’s wel ranken. Dit is behoorlijke onzin, want op de resultaten in de top tien van normale (lees: geen long tail) search queries zie je echt zelden een supplemental pagina (en mocht je hier voorbeelden van kennen dan kun je deze in de comments dumpen).
Pagina’s komen door gebrek aan unieke content en slechte interne en externe links in de supplemental index. Daarbij geldt ook nog dat ze “supplemental” kunnen worden als er al tijden niets veranderd aan zo’n pagina (meer backlinks, veranderingen on page etc.)

Conclusie

Gebruik geen Google sitemaps als je niet weet waarom je dit gebruikt. De data die je uit de index en uit je logfiles kunt halen is veel te belangrijk en het gebruik van Google Sitemaps werkt het plaatsen van een pagina in de supplemental index in de hand.

Op mijn site heb ik zo’n 35 supplemental pagina’s waarvan 99% tags pagina’s zijn. Dit laat ik op dit ogenblik bewust zo, omdat ik er in de toekomst nog wat leuks mee wil gaan doen, ook gebruik ik nog Google sitemaps omdat ik weet dat mijn website wel volledig geindexeerd wordt, door de verscheidene structuren die beschikbaar zijn. Daarbij komt ook nog eens dat deze website van 0 is begonnen en opgebouwd, dat wil zeggen dat hij organisch is gegroeid en niet plots 75 pagina’s moest gaan indexeren (overigens kan het makkelijker dan uit de logfile door deze plugin in je wordpress te installeren: WP Googlestats).

Was dit artikel behulpzaam?

Bedankt voor je feedback!

19 reacties op “Supplemental index & Google Sitemaps”

  1. André Scholten avatar
    André Scholten

    Alleen wel jammer dat we niet meer kunnen zien wat supplemental is en wat niet.

  2. Roy avatar

    hehe met een creatievere query kun je ze nog gewoon ophalen hoor 😉

    Overigens is het niet verwonderlijk dat Google hier niet op zat te wachten, omdat de supplemental gezien kan worden als het archief, maar omdat veel SEO’s succesvol proberen hun site uit de supplemental index te houden is dat hele systeem over de zeik gegaan, met als gevolg dat ze het de Google way moeten aanpakken. Human Interference, als ze het niet meer geautomatiseerd kunnen aanpakken.

  3. Codeboy avatar
    Codeboy

    Met de query “site:www.domein.com/&” zie je meteen welke pagina’s in ‘Google Hell’ zitten.

  4. TruFu avatar

    Ik ben het met je eens dat je een goede link structuur moet hebben, om zo je pagina’s in de index te krijgen. Maar sommige websites hebben een dusdanige linkstructuur dat een ‘flat architecture’ niet (meer)mogelijk is. In dat soort gevallen is een sitemap een uitkomst om toch zoveel mogelijk pagina’s in de index te krijgen. Sitemaps zorgen ervoor dat je click distance (het aantal kliks tot een specifieke pagina) aanzienlijk worden verkleind en dat is wel zo lekker voor spiders.

  5. Roy avatar

    Nice, codeboy! ik gebruikte nog een andere query die hetzelfde resultaat had.

    @trufu: als SEO moet je daar dus ingrijpen in de structuur. Dit is wat je zou moeten doen als whitehat corporate SEO. Overigens ben ik zeker geen voorstander van flat architecture, maar strict hierarchy. Voor mijn gevoel indexeert dit beter, maar is het vooral belangrijk voor de waarde van de links en de toegespitste linklove.
    de clickdistance is dan ook wat optimaler 😉

  6. Joost de Valk avatar

    Ook mooi dat je voorspelt dat de supplemental tag verdwijnt, en dat dat dan binnen 2 dagen gebeurt… Als ik nou alles zo kon voorspellen 😉

  7. Robert avatar

    Met de query “site:www.domein.com/&” zie je meteen welke pagina’s in ‘Google Hell’ zitten

    kom er net echter dat ik een oude htaccess heb terugeplaatst waardoor peginas met en zonder www zijn geindexeerd 🙁 meteen wat aan gedaan 🙂

  8. SEO Handleiding avatar

    Op mijn blog maak ik dus gebruik van een xml sitemap, los van wat er in deze post aangehaald wordt zit ik met iets anders. Als je in google zoekt op seohandleiding, dan rankt mijn sitemap als 2de resultaat. Iemand enig idee waarom, en is dit makkelijk op te lossen via robots.txt ?

  9. Joost de Valk avatar

    Ja, ik denk dat je ‘m zonder problemen kunt blocken. Het systeem waarmee sitemaps worden opgehaald staat voorzover ik weet los van de spider. Ik hoor het graag als je het uitgeprobeerd hebt!

  10. Joost de Valk avatar

    Voordeel is ook nog dat je dit vrij snel kunt testen, gewoon blocken, en dan kijken of je je sitemap nog kunt resubmitten…

  11. SEO Handleiding avatar

    @joost

    Ik heb zojuist zowel een disallow in m’n robots.txt toegevoegd, als via de sitemaps console een aanvraag tot verwijdering van de sitemap.xml in de zoekresultaten aangevraagd.

    Nu moet het toch wel goedkomen lijkt me, de vraag alleen is hoe snel gaat het 🙂

  12. SEO Handleiding avatar

    Nou het is gefixed hoor. Binnen een dag lag me sitemap uit de zoekresultaten!

  13. Joost de Valk avatar

    En hij werkt dus inderdaad nog gewoon als sitemap ook al block je ‘m?

  14. SEO Handleiding avatar

    Hmm zie net in de sitemaps console dat Google het niet leuk vind als je de xitemap.xml exclude in je robots.txt. Heb het dus weer uit de robots.txt gehaald, en nu kijken of deze weer terug in de SERP’s komt of dat de aanvraag voor verwijdering in de SERP’s van kracht blijft voor de toekomst.

  15. Eduard Blacquière avatar

    @SEO handleiding
    Normaal is het zo dat na aanvraag voor verwijdering de betreffende URL vanaf dat moment zes maanden (180 dagen) uit de index van Google blijft (tenzij je een reinclusion request doet). Na zes maanden gaat Google weer crawlen en vervolgens indexeert Google de URL al dan niet aan de hand van de robots.txt of META robots tag.

    Volgens mij is dit hier ook van toepassing, want ik zie je sitemaps niet meer terug in Google.

  16. Dave avatar
    Dave

    Blijkbaar behoor ik bij diegenen die eigenlijk niet goed weten waarom ze een Google sitemap hebben 🙂 Behalve dan het gegeven dat ze makkelijker je pagina’s vinden…

    Kan een html sitemap ook schadelijk zijn ? Daarvoor gebruik ik http://www.sitemappro.com/ , en die volgt enkel de links die een zoekmachine ziet als die op je site komt…

  17. Roy avatar

    Echt schadelijk zal het niet zijn, Dave. Ook veel SEO’s zullen het nog steeds gebruiken, het is echter dat ja als geavanceerde webmaster wat info laat liggen.

  18. Henri avatar

    Klinkt wel logisch.

    Een HTML sitemap is toch totaal wat anders dan sitemap.xml? Een HTML sitemap heeft gewoon inkomende links. Een sitemap.xml heeft geen inkomende links en wordt puur gebruikt voor de indexering, waardoor er ook geen verbanden kunnen worden gelegd (cru gezegd).

  19. Henri avatar

    Klinkt wel logisch.

    Ik had eerder een pagina met 6 niveau’s. Toen was een sitemap.xml wel handig (ook voor Live.com). Echter, als je je navigatie op orde hebt, heb je sitemap.xml niet nodig.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.