Verstopte content telt niet mee voor Google

In mei 2014 begon Google duidelijk te maken dat ze toch wel erg graag wilden kijken wat webmasters met hun CSS deden . Daarom maakten ze het renderen van de pagina’s inzichtelijk in de Google Webmaster Tools. Natuurlijk kon dit maar een ding betekenen en veel old school SEO’s zagen de bui al hangen, weer een ‘trucje’ minder om de hoeveelheid content op de pagina minder te laten lijken en het leven van een webmaster weer iets onmogelijker te maken.

Op zich is er wel iets te zeggen voor het feit dat content dat schijnbaar niet belangrijk genoeg is om zichtbaar op een pagina te tonen niet mee hoeft te helpen een pagina te waarderen en rangschikken. Het is voor een gebruiker niet altijd even prettig om een snippet te zien met een stukje tekst dat niet terug te vinden op de pagina.

Anderzijds hoef je natuurlijk in je customer journey niet altijd alles op hetzelfde moment in het gezicht van je klant te duwen en kan een stukje interactie alleen maar helpen. Dit is dan ook een van de patronen die Google zelf ook graag gebruikt in hun richtlijnen

Screen Shot 2014-11-26 at 17.39.04

Hoe dan ook, Google gaat haar gang en de webmasters zullen haar volgen. Voorlopig zal het plaatsen van een flink lap tekst in een div nog wel werken en ik verwacht dan ook daar nog wel weer wat in te zullen zien. Anderzijds, als je een echt slimme webmaster bent zorg je ervoor dat de teksten (content) die je maakt aansluit bij je gebruiker en de intentie van de zoekopdrachten behelst.

In onderstaande video zie je John Mueller (@JohnMu) in een Google Hangout uitleg geven.

 

Presentatie Digital Marketing Live 2014

Het was weer een boeiende, drukke dag. Vier ronde tafel sessies gedaan van ongeveer 70 slides in 30 minuten. Dat was wel een beetje doorpakken, ik had het aantal slides al wat teruggebracht, maar dacht 40 minuten te hebben, dus kwam bij de eerste sessie iets tijd te kort. Volgens mij heb ik wel iedereen nieuwe inzichten kunnen geven of kunnen helpen met de vragen. Voor de mensen die er waren, die kunnen hier mijn presentatie downloaden via onderstaand formulier.

Geen nood, dit is maar voor eenmalig gebruik en je zult geen nieuwbrieven of iets dergelijks van mij ontvangen.

Helaas, de presentatie is niet meer beschikbaar

 

Not provided naar 100% – Hoe verder?

Gisteren brak het nieuws door dat Google al haar zoekopdrachten via HTTPS laat lopen, met als gevolg dat het minder makkelijk is om zoekgedrag te achterhalen. In het kader van Privacy best verdedigbaar in mijn ogen, echter gelijke monniken, gelijke kappen zou je denken. Dat is uiteraard niet het geval. Voor Adwords, de geldbron van Google en van veel websites, blijft het over de normale HTTP verbinding gaan vooralsnog, daar is privacy minder belangrijk.

Waarom is dat dan zo?

In Google analytics konden we in het verleden, op basis van de ‘referer’ (de website/url van de afzender), achterhalen met welke zoektermen gebruikers bij onze sites binnenkwamen. Zodoende kon je achterhalen welke woorden goed voor jou werken in je SEO Strategie. Conversie, gedrag en activiteit, alles kon je zo achterhalen. Ideale wereld.

Nou is het zo dat als je iets gratis kunt krijgen dat beter is dan als je ervoor moet betalen, omdat het ‘natuurlijker’ oogt. Daarnaast is Google niet kapot van SEO’s die proberen de zoekresultaten te beïnvloeden (ze vinden het prima als je ze helpt met meer content indexeren en ontrafelen overigens). Dus komt het ze niet heel slecht uit dat het aantonen van rendement een stuk lastiger is. Echter voor Adwords is dat vrij essentieel, dus daar zullen ze op korte termijn nog niet aankomen.

Hoe nu verder?

Waar halen we nu de data vandaan om te valideren of we goed bezig zijn. In het verleden werd er op positie gerapporteerd en gelukkig weten we nu al dat dit niet de weg is. Als industrie zijn we met onze KPI’s naar bezoekers en conversie toe gegaan, waarbij zoektermen en gedrag werden doorgemeten op zoekterm niveau. Nu zul je een deel van dit gedrag misschien uit je Adwords moeten halen (extrapoleren bijv.) of op pagina niveau gaan doormeten. Persoonlijk vind ik de laatste variant veruit de beste variant, omdat je daarvoor ook echt een goede site nodig hebt, waarbij je weet waarom je bepaald traffic op een bepaalde pagina kunt krijgen.

Duidelijker kun je het niet maken: wie betaalt, bepaalt bij Google en zolang er geld te verdienen is zullen slimme SEO’s wel een weg hebben om de juiste data te achterhalen. Echter voor de mensen die hier niet dagelijks mee te maken hebben zullen er de komende maanden nog wel enkele verrassingen zijn in de rapportages.

Meer lezen:

Webanalytics & Business Intelligence leiden tot factbased marketing

Daadwerkelijk verbeteren door factbased marketing

Webanalytics gaat niet over hoeveel data je beschikbaar hebt, maar juist over die paar cijfers waar je elke dag, week en maand naar kijkt. Na dat de cijfers gezien zijn is het belangrijk dat er een actie op volgt. Dit kan zijn het doen van een verdere analyse, maar ook het bijsturen van de kosten, uren of een van de externe partijen. Het aansturen van je online marketing team. Dit is de basis van ‘fact-based marketing’. Fact-based marketing is dan ook de systematische aanpak voor continue groei als je een omzet wilt bereiken in de tientallen miljoenen.

USP’s vs. operational excellence.

Veel van mijn advies gaat over het ‘bouwen’ van een merk. Laadt je merk met je kernwaarden en zorg er ook voor dat je daadwerklijke USP’s heb. Unique selling points, voor de duidelijkheid. Belangrijk is hier het woord: Uniek. (gratis verzenden is dus veelal niet uniek). Uniek houdt namelijk ook in dat het niet makkelijk kopieerbaar is. Daadwerkelijk voordeel van het merk dat niet eenvoudig te kopiëren is.
De basis van het verhaal gaat dus hiervoor op. Het is dus ook belangrijk om te beseffen vanwaar de aanleiding van dit artikel is gekomen.

Op de OMCap in Berlijn heb ik naar een sessie gekeken van van Florian Heinemann. Florian heeft Project-a.de opgericht en heeft voorheen ongeveer 5 jaar bij Rocket Internet gewerkt als Webanalytics & BI consultant.

Dan begrijp je direct het probleem wat Rocket Internet heeft in hun bedrijfsmodel. Het gebrek aan ‘uniek’ zijn. Bijna alle modellen van Rocket Internet zijn een kopie van een succesvol buitenlands, voornamelijk Amerikaans, concept.

De simpele vraag die dan gesteld moet worden is dan als volgt:

Ben ik in staat om meer gebruikers voor dezelfde prijs om te zetten naar kopers dan mijn concurrentie?

Het antwoord op deze vraag kun je bereiken door ‘operationele excellentie’ tentoon te stellen en als belangrijkste “USP” te kiezen. De focus op de continuïteit van de verbetering van de processen.

Rocket Internet heeft daarvoor een bepaald model opgezet. Een voorbeeld van een heel logisch model dat duidelijk een starter kan helpen met de opzet van een fatsoenlijk BI model om ‘self-sustaining continues growth’ na te streven.

Als eerste een model om te kijken in welke markten je in zou kunnen stappen. Een matrix waarin de mate van ‘monetization’ afgezet is tegen ‘relevantie’. Zodoende kun je zien waar eventuele gaten liggen en in het kwadrant waar meerdere mensen hoog/hoog hebben zou je niet direct moeten beginnen.

Concurrentie matrix zoals Project-A deze gebruikt

Concurrentie matrix zoals Project-A deze gebruikt

Je bent wat je meet

Belangrijk is het om vooraf te bedenken dat je veel data nodig hebt. Veel data die relatief eenvoudig met elkaar verbonden moet worden. Het liefst data in één database.

Florian gaf aan dat Amazon dit vanaf het begin aan goed heeft gedaan. Zalando gebruikt volgens hem nog een aantal verschillende systemen waardoor 100% datamining niet zo eenvoudig gaat als gewenst. Vanaf de eerste fase is het dus belangrijk om deze data alvast te verzamelen, maar we gaan er nog niets mee doen.

The BI strategy roadmap of Rocket Internet.

Het model zoals gebruikt wordt bij Rocket Internet (voor zover publiek bekend en zeker niet geheel onbekend) bestaat dan ook uit 3 fasen. Klanten werven, consolideren en automatiseren.

  1. Initial customer acquisition fase
    Het zoeken van het juiste product. De focus ligt in deze periode volledig op groei, zonder direct zicht op financiën. Het is een duidelijke proefperiode die maximaal 6 maanden mag duren, maar bij voorkeur korter.
    KPI’s
  2. Consolidatie fase
    Deze fase is belangrijk om de de economische implicaties en onderdelen te leren kennen. Onderzoek naar bezoekerswaarde (customar value) en kosten voor een verkoop (acquisition cost). Deze periode duurt ongeveer 3 tot 6 maanden ook. Er wordt totaal nog niet gekeken naar ‘generieke’ zaken en zoektermen bijvoorbeeld.
  3. Self-sustaining growth
    Hoe kunnen we de bekende mechanieken instellen en instrueren op een dergelijke manier dat we alleen maar te hoeven blijven voeden, maar vooral zaken kunnen uitrollen. Dit is de tijd waarin ‘duplicatie’ ook kan gaan plaatsvinden. Wat zijn de ‘trade-offs’ van bepaalde manieren van handelen ten opzichte van groei ten opzichte van marge. Dit ook het moment dat volledig de concurrentie kan worden aangegaan en dat men eigenlijk geen plafond meer heeft in haar uitgaven, zolang deze aan de mechanieken voldoen.

Business Intelligence Fases

Benadering

  1. Eenvoudige benadering en veel handmatig. Bekijk vooral naar het verleden en stijging van het aantal verkopen in combinatie met het gedrag.
  2. Semi-geautomatiseerd en voorzichtig wordt er gekeken naar voorspellingen op basis van ouder gedrag. Business cases kunnen worden gemaakt. CRM begint gevuld te raken en er wordt meer aandacht gegeven aan het verbetern van de operatie.
  3. Daadwerkelijke voorspellingen. Bijna realtime data om sneller te kunnen schakelen. Verbeteringen op alle gebieden dragen bij aan de groei en verbetering van de organisatie.

KPI per fase

  1. Het aantal bounces, hoeveel mensen verlaten je pagina en je winkelwagen, wat is het aantal pagina’s dat ze hebben bekeken. Wat is de conversieratio en de doorklikratio. Wat is de ‘cost per order’?
  2. Wat zijn de kosten om een klant te kopen vs. de klantwaarde, wat is de clickthroughratio x conversie ratio. Wat is de samenhang in gedrag? maar ook worden nu microconversions bekeken voor gedragsanalyse en enkele KPI’s komen in de buurt van customer segmentatio.
  3. Wie kopen vaker producten, wat is de opbouw in klantwaarde ten opzichtte van de kosten om klant te kopen, wat is de retentie waarde? Vragen welke meer voorkomen uit je CRM pakket dan uit je daadwerkelijke webanalytics.

Organisatie en infrastructuur

  1. Goede Webanalytics, manual MySQL/Excel, 1FTE
    Om te beginnen met dit model moet je zorgen dat er 1 iemand verantwoordelijk is, die goed is met excel (of zelfs met mysql) en ervoor zorgt dat je webanalytics pakket goed functioneert.
  2. DWH reporting, BI team
    De volgende stap is ervoor zorgen dat je niet meer afhankelijk bent van excelfiles waar je hoofdpijn van krijgt, maar alles in een datawarehouse gaat stoppen, waar je slimme vragen aan kunt stellen. Je werkt dan ook niet meer alleen aan de tracking van je gebruikers, maar begint dit te doen met een team.
  3. DWH actionable, BI team, analyitcs & infrastructure.
    Als je datawarehouse dan ook volledig draait is het ook belangrijk dat het vanzelf een aantal acties voor je kan ondernemen, denk bijv. aan (near)real time bidding, maar ook het opzetten van alerts en business rules. Je hele infrastructuur is gebouwd op je analytics. Je organisatie is volledig afhankelijk van de data die jouw team produceert.

Data silo’s

De combinatie van data is dan ook heilig. Sterker nog, de grootste bedreiging voor dit model is ‘data silo’s’. Data silo’s zijn eigen databases welke moeilijk of niet bereikbaar zijn. Denk bijvoorbeeld aan je connectie tussen Enquêtes, Usability, CRM, Facebook, Google Analytics en Google Adwords. Een heel klein verschil in meting of tellingen zorgt al voor hele grote problemen, waardoor de daadwerkelijke inzichten al veel lastiger worden, al dan niet in tijd of complexiteit.

Samenvatting

Erg belangrijk is de stap van tracking naar inzichten en de stap van inzichten naar acties. Niet de makkelijkste stappen, maar wel essentieël in de uitvoer voor operationele excellentie. Besef je goed welke data je hebt. Kun je wel verder naar de volgende fase? Wanneer is voor jouw organisatie een fase voorbij? Heb je alle kennis en data voorhanden om die stap te maken en wat is de impact op de organisatie?

SEO in de mix in 2012

Voor emerce heb ik op woensdag 21 maart een hele dag ronde tafel sessies gedaan met mensen die graag wilden weten wat ze kunnen verwachten op het gebied van zoekmachine optimalisatie en hoe je SEO in de marketing mix verwerkt.

De insteek van de presentatie was om vooral de marketeers te motiveren en te laten zien wat er eigenlijk mogelijk is en wat de keuzes zijn geweest (en worden) van ongeveer 1500 experts wereldwijd vanuit MarketingSherpa.

Wat mij elke keer weer opvalt is hoeveel mensen echt op zoek zijn naar de gratis tips en eigenlijk nooit veel verder denken in de mogelijkheden en nieuwe kansen. Ik ben bang dat hier toch een stukje spreadsheet management en onze eigen ‘accountability’ pitch de oorzaak van is. Het nemen van risico wordt tenslotte niet beloond, alleen het bestraffen van misstappen is waar de angst voor regeert. Begrijpelijk in het huidige systeem en een groot voordeel voor iedereen die dit wel ziet.

Het hele idee van SEO dat ik al sinds ergens in 2006 verkondig is dat je het moet integreren in de organisatie. Technisch moet je site op orde zijn. Eerlijk gezegd valt dat met veel van de huidige webbouwers (van groot tot klein) nog niet mee. De basiskennis van SEO zou daar toch gewoon duidelijk moeten zijn.

Überhaupt ben ik van mening dat een webdesigner kennis moet hebben van Microformats, Schema.org, Responsive design, canonicals, language references en algehele webdesign trends en bewegingen. Anderzijds, in het land waar we verplicht zijn aan webrichtlijnen te voldoen en waar een groot deel van de gemeentes en overheidsites hier nog niets mee doen ondanks dat de eindtermijn hiervoor al enkele malen zijn opgeschort, moet je ook niet verbaasd zijn dat men hiermee wegkomt.

Dat SEO trouwens niet door webdesigners wordt begrepen is niets nieuws, Journalisten, mainstream bloggers en project managers kunnen er ook wat van als je kijkt naar sommige artikelen die compleet fout worden geïnterpreteerd en gepubliceerd de afgelopen week over ‘over-optimalisatie’.

Maar goed, dit alles mag de pret niet drukken, mocht je de download link van de presentatie willen zien, vul dan even je e-mail adres in en dan is hij direct beschikbaar in je mailbox. Ik doe overigens niets met je e-mailadres, dus daar hoef je niet bang voor te zijn.

Helaas, de presentatie is niet meer beschikbaar

Waarom links geen likes worden

Karel heeft een leuk betoog geschreven over waarom links likes zullen worden in de toekomst. Ik geloof daar niet zo direct in.

Likes worden een belangrijkere metric in de toekomst, daar ben ik het mee eens en natuurlijk ook dat search enorm verandert. Ik geloof echter niet dat likes de links ooit zullen vervangen en wel om de volgende redenen:

  1. Lang niet iedereen is actief op social media, waardoor je problemen krijgt met de steekproef van de data die je neemt.
  2. Sociale media zijn erg vluchtig, kwaliteit komt veelal voort uit tijd. Over tijd worden de meeste sociale media waardeloos.
  3. Gedrag van social media is erg afhankelijk van verschillende factoren, zoals het weer, welke netwerk op welk netwerk actief is en hoe de metrics zelfs heten. Een ‘Like’ is tenslotte veel ‘makkelijker’ dan een ‘respect’ of een RT, waarmee je in principe zegt dat je het zelf zou kunnen zeggen.

Ik kan er nog wel een paar benoemen, maar ik denk dat je hiermee de belangrijkste op dit ogenblik wel gehad hebt. Ik zal er nog even iets verder ingaan op bovenstaande punten.

Te kleine steekproef

Als we kijken naar sites, personen en organisaties welke zoekmachines (en de ‘echte’ wereld) als autoriteit beschouwen dan zien we dat deze in verhouding nog maar erg schamel vertegenwoordigd zijn. Natuurlijk kunnen we het hebben over een ‘new world order’ wat betreft autoriteiten, maar ik zie dat niet zo snel veranderen. Even een doodsimpel voorbeeld, niemand ‘liked’ een site van een organisatie die onderzoek doet naar kanker, daardoor zou deze minder naar voren komen in de zoekmachines terwijl deze site juist zo belangrijk is voor veel mensen, echter de sponsoractie die is gedaan krijgt wel zijn likes, deze rankt dus wel. In principe voor de grote massa dus niet eens verkeerd, echter de onderzoeker die met de organisatie in contact wil komen wordt niet geholpen en vind de kwaliteit dus bijv. laag.

Vluchtige Media

Kwaliteit over kwantiteit is altijd het motto van Google geweest. Dit mantra zullen ze blijven vasthouden. Als je kijkt naar hoe iets autoriteit opbouwt (en hoe bijv. het PageRank algoritme is ontstaan, vanuit de wetenschappelijke systemen waarbij verwijzingen naar ouder onderzoek in kwantiteit de kwaliteit aangeven) dan zie je dat Sociale media hier erg veel moeite mee hebben. Kwaliteit zit dan op hele andere metrics. De vraag is hoe vluchtig die metrics uiteindelijk blijken te zijn, omdat er nogal vaak hele grote veranderingen waar te nemen zijn en het risico op ‘gaming’ (denk bijv. aan Google Bombing) daardoor heel groot wordt.

Gedrag

Doordat je niet over elke netwerk dezelfde samples kunt halen, door de grote onderlinge verschillen is het moeilijk om hier een waarde aan te hangen die algemeen geldend is. Let dus hierbij vooral op het woord algemeen. Ik geloof namelijk wel dat ‘likes’ een grote invloed gaan hebben op de het personalisatiedeel van de zoekresultaten. Jouw netwerk zorgt voor jouw resultaten, als jij alleen met populaire hipsters hangt, dan krijg je sneller soortgelijke resultaten te zien, terwijl als jij op een universiteit werkt en altijd op zoek bent naar de lastigste artikelen over quantumfysica of information retrieval dan zal jou vriendenkring hier veelal ook een waardevolle aanvulling zijn (Denk dus aan de kringen in Google+).

Wat zijn likes dan wel?

Geen haar op mijn hoofd die eraan twijfelt of likes niet belangrijk zijn. Ik geloof echter juist dat 2012 het jaar van verdieping gaat worden. Even niet iets nieuws uitproberen, maar juist iets verder op de zaken ingaan. Allerlei factoren wijzen daar ook op. Likes zijn dus zeker belangrijk, maar het is een added value in mijn ogen. Just another metric. Niet een totale vervanging voor wat er bestaat. En dan hebben we het nog niet eens gehad over de ‘walled gardens’ die verschillende netwerken in stand proberen te houden of waarbij dat juist hun added value is…

Ik hoor graag van jullie hoe jullie hierover denken!

Schrijven voor het web en Sociale Media & Handboek zoekmachinemarketing

Ik had nog twee boeken ter review op de plank liggen welke ik maar tegelijk in een artikel zal bespreken. Beide boeken vond ik goed om dezelfde reden: het helpt de beginner goed op weg in de wereld van websites, online marketing en hoe je hier nu eigenlijk verkeer naar toe kunt krijgen.

Handboek zoekmachinemarketing

Allereerst het boek “handboek zoekmachinemarketing”. Het is alweer de vierde editie van dit boek en dat is niet voor niets. Als beginnen Online marketeer heb je hier een flinke kluif aan. Het boek telt maar liefst 520 pagina’s. Pagina’s die duidelijk zijn omschreven en vanaf stap één tot een behoorlijk niveau, waarbij je zelfredzaam zou moeten zijn in mijn ogen.

Het boek is wel meer gericht op mensen die het toch zelf gaan uitvoeren en niet op de gemiddelde webbouwer in mijn ogen. Hiervoor komt het boek teveel tekort op het gebied van nieuwe technieken. Dit is overigens geen verwijt, want deze technieken veranderen zo snel dat we anders onderhand al aan de 36ste editie zaten en er al twee uitgaves bij waren gekomen sinds ik dit boek heb.

Ik zou dit handboek zoekmachinemarketing dus zeker aanraden aan een MKB-er die verantwoordelijk is voor de website in zijn of haar organisatie en graag wil weten wat er moet gebeuren of eventueel op het punt staat een bureau in te huren.

Schrijven voor het web en sociale media

Allereerst even melden dat ik hier zelf ook een stukje in heb geschreven, dus dat alleen al een reden is om schrijven voor het web en sociale media te kopen. Verder ben ik ook enthousiast over dit boek vanwege de inhoud.

Annelies en Victor zijn erin geslaagd om een erg handzaam boek neer te zetten, dat voor iedereen die zelf koud watervrees heeft op weg kan helpen met veel nuttige tips, adviezen van consultants, redacteuren, tekstschrijvers, bloggers en twitteraars die hebben geholpen met dit boek. Dit heeft ook een klein nadeel, want door de hoeveelheid blokjes leest het niet als een roman. Niet dat dat nou zo erg is. Ik lees dit soort boeken toch altijd in blokken en aan de hand van de index als je iets wilt weten of opzoeken.

Ik zie mijzelf dit boek nog wel eens weggeven aan klanten als ik iets met ze gaan doen op gebied van content marketing.

Conclusie

Als je al thuis bent in online marketing dan hoef je niet zoveel te doen met deze boeken, maar zou ik je aanraden om er in de boekenwinkel een keer doorheen te bladeren, wie weet kun je de wat minder websavvy mensen in je omgeving er blij mee maken. Ik vind beide boeken een aanrader voor de beginnende online marketeer en website-verantwoordelijke.

Realtime Search waar gaat de wedloop om?

De hoeveelheid data die momenteel op ons afkomt is enorm veel. Realtime search zou voor de gebruikers orde in de chaos moeten scheppen, maar momenteel is het tegenovergestelde waar.

Wat is search?

Dave Coplin (Director of Search bij Bing) begint de sessie met de vraag: Wat is search? Wat kan het betekenen voor ons als mensen. Een van de eerste dingen die hij zich afvraagt is hoe je geld kunt verdienen met search. Bing kijkt liever naar hoe mensen met search omgaan. Het is ons ‘window’ naar het internet.

Search Journey

Hij geeft aan waar we zijn in de search journey, volgens Dave zijn we nog niet ver op onze reis. Een op de vier zoekopdrachten zijn succesvol, 75% van de zoekopdrachten worden aangepast of verbeterd, 50% van onze tijd is het herformuleren van onze zoekvraag. Heel vaak brengt zoeken ons nog op plaatsen waar we niet moeten zijn. Een voorbeeld waarover hij verteld is een bordje op een basisschool dat aangeeft dat je geen zoekmachines mag gebruiken voor je artikelen, alleen websites die door de leraar zijn aangegeven. Erg confronterend volgens Dave. Zoals wij zoekmachine marketeers kennen van Bing gaat het niet om search, maar om decisions.
De evolutie van search bestaat volgens Dave uit:
  • topical (html)
  • social (people and profiles)
  • geospatial (places maps)
  • taken (services en applicaties)
Wat is de intentie van de gebruiker? Daar willen de zoekmachines op inspelen. Navigeren, Informeren en Transacties. Wij werken niet transactioneel, of informeel, maar hebben een ‘superintenie’ De holistische benadering van Bing dus.

Wat zijn de uitdagingen?

We moeten meer weten over de gebruikers, de zoekmachines kunnen dit vragen maar ook vinden.
Geef mij meer van jou en ik geef je meer relevantie en betere antwoorden.
Privacy gaat over transparantie. Dave geeft aan dat Mark Zuckerberg het goed doet met Facebook qua transparantie, de ultieme stap. We praten te weinig over vertrouwen, en teveel over relevantie. Er moet een manier komen om dit te relateren aan onze acties. Social search is niet over twitter en linkedin, maar informatie in de juiste context.

De “Vrijdagavond test”

Bing test dit met de ‘vrijdagavond test’ (friday night test). Met een Mexicaanse maaltijd, een film en op tijd thuis zijn om de volgende morgen Ben10 te kunnen kijken. De vragen die opkomen bij:
  • de film: what, where, how
  • restaurant: what where how
  • op tijd thuis: what where how
Facebook is eigenlijk erg transactioneel, zonder dat we het beseffen. We willen eigenlijk geen point to point transacties zoals bijvoorbeeld met een iphone zoals die van de NS. Beslissingen in plaats van resultaten.

Paddy Moogan Social Media Tactics

Paddy Moogan van Distilled gaat meer in op de SEO kant van de zaken. waar kijkt Google naar bij realtime search, wil de gebruiker wel daadwerkelijk realtime search? Eigenlijk is dit gewoon niets nieuws en erg basic verhaal me behoorlijke lompe tactieken. Ik kan er mijn hoofd niet bijhouden. Wel een kort overzicht van de tips:
  • Een van de CTR tricks is bij realtime search bij Twitter is image meesturen. Twitpic en yfrog worden iig toegestaan. Het duurt ongeveer 4 minuten bij paddy om zijn foto zichtbaar te krijgen, ik vraag mij af of dat niet heel afhankelijk is van de autoriteit. Door het image eerst te tweeten en daarna pas in je realtime search tweet te stoppen gaat het sneller. Als iemand op zo’n image klikt kom je op image terecht. Dus doe je een 301 redirect. Denk eraan dat image eerst geïndexeerd moet worden.
  • Reputation Management is niet echt heel geschikt, maar je kunt wel meer informatie vinden als je realtime search gebruikt. Google news, je moet meerdere auteurs gebruiken om in Google news te komen. Die kun je dus gewoon aanmaken. Ghostwriters galore.  Je hoeft niet eens in google news sitemap te hebben als je een nummer in de URL hebt. Blijf aanvragen en dan kom je er vanzelf wel keer in.
  • Bloggen op nieuw nieuws is een tip… tsja.
  • Probeer autoriteiten jouw tweets te laten retweeten.
Goedkope tactieken naar mijn mening, en ook de vraag hoe waardevol het is voor jouw dienst of product. Wie weet kun je er wat mee.

De presentatie die geen presentatie was, maar wel goed.

Aaron Kahlow van Online marketing connect blijft op zijn plek zitten, omdat hij vond dat de wereld een beter af was zonder nog een powerpoint over realtime search. Hij wil ons brengen naar wat ‘the big picture’ is en vraagt zich af of het allemaal wel zoveel zin heeft. Niemand weet of het wel de moeite waard is, dit komt omdat zoekmachines het nog niet uitgedokterd hebben. Er zijn nog geen echt succesvolle cases. De vraag is of realtime search wel een prioriteit is voor jou persoonlijk? een veel gevallen is het een “A nice to have”. Tenzij je in de nieuwsbusiness zit.
49% van de mensen op twitter gebruiken hun sociale kanaal als bevestiging voor hun zoekopdracht bijvoorbeeld. Meer tijd spenderen aan monitoren en tracking is de eerste tip die Aaron daarom ook geeft. Content marketing in plaats van ouderwets protectionisme is beter voor realtime in het algemeen. Jouw site is de hub en je moet de spaken naar buiten toe leggen. Ik hou van Aaron zijn aanpak: hij geeft tijdens een van de vragen duidelijk aan: Als je boormachines verkoopt, waarom zou je daarover willen tweeten? Een ander idee dat hij aangeeft is ‘Rolling FAQ pages” gebaseerd op twittervragen die je beantwoordt. Dat zou wel eens kunnen werken. Doe er je voordeel mee…

Google spam in 2011

Vandaag heeft Matt Cutts een blogpost online gezet waarin hij beschrijft wat (en dat) er maatregelen genomen worden tegen google spam en zogenaamde content farms en sites die proberen met Google te spelen. Ik haal er even paar citaten uit en met wat ik hier in Nederland zie gebeuren, overigens word er vooral gesproken over de Engelstalige index en weten de meeste SEO’s wel dat er een behoorlijk verschil zit per taal in de algoritmes en haar invloeden.

As we’ve increased both our size and freshness in recent months, we’ve naturally indexed a lot of good content and some spam as well. To respond to that challenge, we recently launched a redesigned document-level classifier that makes it harder for spammy on-page content to rank highly. The new classifier is better at detecting spam on individual web pages, e.g., repeated spammy words—the sort of phrases you tend to see in junky, automated, self-promoting blog comments.

Yupz, het was mij inderdaad opgevallen dat zoekterm dichtheid en gerelateerde woorden de afgelopen 4 a 5 maanden stukken beter zijn gaan werken, dus ik geloof best dat ze wat nieuwe algoritmes hebben geinstalleerd, in de praktijk zie je daar nog niet bijzonder veel van terug in de Nederlanse index/algoritmes. Aan de andere kant horen we ook genoeg affiliates die gekelderd zijn met hun sites, waarvan verwacht werd dat het met de hand gedaan werd, ondanks dat Google daar geen fan van is. Dit zou natuurlijk ook de invloed van het nieuwe algoritme kunnen zijn. Interessant zou zijn om eens te kijken naar de sites die een behoorlijke keldering hebben meegemaakt ten op zichtte van de sites die nu nog ranken met in mijn ogen een behoorlijke zoekterm dichtheid.

And we’re evaluating multiple changes that should help drive spam levels even lower, including one change that primarily affects sites that copy others’ content and sites with low levels of original content.

Ah, doei contentscrapers. Dat is echt goed nieuws, herkauwen van content zit echt niemand op te wachten.

As “pure webspam” has decreased over time, attention has shifted instead to “content farms,” which are sites with shallow or low-quality content. In 2010, we launched two major algorithmic changes focused on low-quality sites. Nonetheless, we hear the feedback from the web loud and clear: people are asking for even stronger action on content farms and sites that consist primarily of spammy or low-quality content.

En nog een verandering van sites die alleen maar content publiceren om advertenties te kunnen blijven draaien of alleen maar gewoon long tail verkeer binnen kunnen halen. Sites die dus zogenaamde content farms zijn. In mijn ogen prima om hier wat aan te doen en ook iets dat serieuze SEO’s ook al tijden adviseren, echter worden ze soms voorbijgestreefd door de realiteit met 450 links van startpagina klonen. Dat blijft een moeilijk verhaal om te verkopen (of verklaren).

Conclusie

We kunnen rustig stellen dat Google hard bezig om haar index zo volledig en correct mogelijk te krijgen. Dit gaat ten kostte van de trukendoos van veel partijen, welke nu toch weer op zoek moeten naar andere manier om hun website te vermarkten. Ik zou aanraden om zeker  in de social media te gaan rondkijken, er zijn zoveel kansen je moet er alleen mee aan de slag willen.

Ik ben wel benieuwd hoe jullie hier tegenaan kijken?

De toekomst van SEO: Location Based Services

De afgelopen twee jaar is er veel gesproken over real time search en het belang hiervan (korte uitleg op youtube en een duidelijke uitleg op frankwatching). Allemaal leuk en aardig, maar niet gemakkelijk commercieel in te zetten. Wel belangrijk om de volgende stap te maken. Snelheid, relevantie in tijd en vervolgens dus de verwerking en long tail van geodata, de toekomst van search ligt voor een deel in location based services. Een korte rant die je hopelijk aan het denken gaat zetten over het belang van Google Places in de toekomst.

Relevantie

Een van de definitie’s van relevantie luidt als volgt:

Relevantie geeft de verhouding weer tussen de bij een zoekgang gevonden relevante informatie en het al gevonden materiaal

Je kunt op verschillende manieren relevant zijn. Inhoud (search 1.0) en daarna Tijd (search 2.0) wat is de volgende plek om te zoeken naar relevantie? Precies. Plaats (search 3.0). De echte trend is bij heel veel mensen nog niet doorgedrongen en de waarde ervan is ook nog lang niet duidelijk. Coupons, small business opportunities, kleine ondernemers makkelijker aan systemen als Adwords en dit nog relevanter kunnen maken, op de juiste tijd en plaats op basis van inhoud en gedrag.

Foursquare

Een spel als foursquare is behoorlijk populair en op foursquare wordt door slimme ondernemers dan ook maximaal ingezet. In een recente gesprek van foursquare eigenaar Dennis Crowley op Startup2010 word dan volop gepraat over de mogelijkheden. Ik zou je aanraden die video te gaan bekijken en nog eens goed te bedenken wat jij met het begrip locatie kunt doen (en hoe de 4P’s misschien toch uiteindelijk weer op zijn plaats terechtkomen, maar dan in omgekeerde manier van benaderen).

Mobile

Ik hoef denk ik niet uit te leggen waarom ze dus de afgelopen jaren zo sterk op mobile hebben ingezet. Natuurlijk heeft iedereen wel gezien hoe belangrijk het allemaal is en waar kansen liggen, maar ik hoop dat jullie duidelijk wordt dat het ‘window of opportunity’ snel sluit en wijs iemand op twitter zei: “Opportunity never knocks twice”.

Het is een beetje vaag, het is een beetje ranty, maar ik ben erg benieuwd hoe jullie Location Based Services kunnen inzetten en hoe je denkt dat Google hier maximaal gebruik van gaat maken.

Rankings zijn dood! SEO Rank Monitor niet

Veel word er geschreven over dat je niet naar rankings meer moet kijken als KPI. En dat klopt tot de dag van vandaag. Het gaat niet om de positie waar je website staat, maar hoeveel verkeer er van een keyword afkomt. Zo keken wij bij Onetomarket altijd naar resultaten en zo kijken we ook bij Jaludo naar zoekverkeer. Maar dan zie je dat er plotseling minder verkeer op je keyword binnenkomt. Wat doe je dan? Title veranderd? Slechte meta description? Local search ervoor of toch misschien wat plaatsen gezakt? Met SEO Rank monitor kun je je posities over tijd in de gaten houden en terughalen. Net wat we zochten!

Waarom een blogpost over rank monitors?

Natuurlijk zijn er veel meer pakketten die dit voor je kunnen doen. Maar deze is van een Nederlande SEO met de naam Saku en wil deze graag aan jullie introduceren, in ieder geval aan de mensen welke er nog niet mee bekend zijn. Omdat het zo lekker dichtbij staat en het gewoon een gaaf, nederlands product is. Doordat de afstand kort is is het ook makkelijk nieuwe features aan te dragen. Daarom is dit een tool welke ik graag aan jullie voorstel.

Welke opties heeft de SEO Rank Monitor allemaal?

  • Dashboard
  • Positie check
  • Competitie check
  • Gemiddelde domein positie, incl aantal geindexeerde pagina’s en backlinks in Google (niet echt helpvol)
  • Analytics Monitor

Dashboard

Positiecheck

Gemiddelde domein positie

Analytics Monitor

De analytics monitor is eigenlijk wel de meest leuke feature van deze tool en ook meteen de USP boven vele andere tools. Door deze tool toegang te geven tot Google Analytics, krijg je een overzicht van de keywords en de hoeveelheid unieke bezoekers er van dat keyword afkomen.

Door keywords te taggen kun je netjes categoriseren en goed je keywords in de gaten houden.

Conclusie

Ik besef dat er tools op de markt zijn die stand-alone draaien en soms zelfs meer opties hebben dan de SEO Rank Monitor. Vaak zijn deze ook stukken duurder en hebben ze een ander doel dan waarvoor ik ze precies gebruik. Ik kan goed uit de voeten met SEO Rank Monitor en qua kosten scheelt het ook flink. Een van de voordelen van Serverside is dat je er ook gewoon 9 dagen niet naar hoeft om te kijken en je toch netjes je dagelijkse verschuivingen ziet.

Probeer het gewoon zelf, de eerste maand is gratis dus je kunt je er zeker geen buil aan vallen!

Andere Ranking Trackers welke in gebruik

Ik gebruik voor mijn eigen projecten Rank Tracker (google maar, geen affiliate links voor mij), SEO Report en ik heb ervaring met Advanced Web Ranking. Verder natuurlijk good old handjobs ;) Je ziet tenslotte het meeste als gewoon zelf regelmatig zoekt op de keywords waarmee je aan het werk bent.

Ook korting via chapter42.com!

Ik werk sinds enkele weken met deze tool en je merkt denk ik wel dat ik redelijk enthousiast ben. Daarom heb ik saku gevraagd of ik jullie ook een korting kan bieden (en ja, ik strijk er geloof ik zelf ook nog wat mee op)

Standaard kost SEO Rank Monitor 19 dollar per maand. De Pro versie kost 39 dollar per maand (met de huidige dollarkoers gaat het om ongeveer 13 en 27 euro)

Maar met de kortingscode “chapter42” krijg je 10 dollar korting per maand. Dat is dus 120 dollar korting per jaar!

Long-tail: nagel aan de doodskist van oude media

Een beetje een uitdagende titel, maar een groot deel van de problemen van de kranten komt door hun eigen inhaligheid en het niet snappen of de impact beseffen van de long-tail. Kranten met een oud archief profiteren natuurlijk enorm van de long-tail. Tenminste zo lijkt het. Echter valt hier met een CPM gebaseerd business model bijna geen geld aan te verdienen. Dit omdat niet alleen de zoekopdrachten oneindig zijn, maar ook de plek van waar de advertenties geplaatst kunnen worden. Dus behalve de vraag werd plots ook het aanbod oneindig. Iedereen met een middelbare school en twee lessen economie weet wat dat betekend.

Schaarste
Kranten draaiden goed op de schaarste van de advertentie in deze krant. Dit dreef de prijs lekker op en kon zelfs kunstmatig hoog worden gehouden door je te scharen achter journalistiek ethiek. De hoeveelheid nieuws die in een krant moest staan in verhouding tot het aantal vierkante centimeters/meters advertenties. Er waren maar een x-aantal pagina’s en daarvan was maar een bepaald percentage beschikbaar voor advertenties. Dit zorgde voor een kunstmatige schaarste. Mede door slechte meetbaarheid van offline advertenties en slimme modellen gebaseerd op bereik zoals GRP werd er betaald naar wat juist geacht werd, of de adverteerder kwijt kon.

Oneindige advertentieruimte
Dit zelfde trucje probeerden ze ook online. In de begin jaren van het Internet kon dit prima, niemand was nog handig in het inzichtelijk maken van de waarde van banners rondom nieuws. In een krant kunnen maar een beperkt aantal advertenties staan, en de volgende dag komen er maar weer een aantal plekken vrij. Kijk je naar dat ene artikel in krant van drie weken geleden, dan zie je nog steeds dezelfde advertentie. Daar zit nu een deel van het probleem. Diezelfde ruimte is online gewoon weer te koop. Er is geen sprake meer van schaarste. Tijd is plots een extra factor geworden. Archieven worden helemaal opengegooid en de long-tail wordt zoveel mogelijk benut. Sterker nog, de long-tail van het aantal zoekopdrachten leek zelfs even de redding van een stervend business model.

Maar plots bleek het moeilijk al die ruimte op te vullen met relevante advertenties en slimme inkopers zagen dat er van schaarste geen sprake meer was. Dit had als gevolg dat er een harde prijzenslag losbrak en er adbrokers ontstonden die de restruimte op kochten tegen, in verhouding, spotprijzen. Door slimme en lange deals te sluiten werden de bedragen plotseling relevant. Kranten moesten hier wel op in gaan om het het totaal bedrag toch een aardige stuiver is en je ook niet rijk wordt van je eigen banners (nouja, niet zoals de gemiddelde krant het doet in ieder geval).

De oplossing?
Makkelijk preken natuurlijk, maar de vraag is hoe je dit nu kunt oplossen. Er zijn natuurlijk verschillende zaken om te proberen, maar de grootste fout die kranten momenteel maken is in mijn ogen het weggeven van de ruimte die ze hebben. Waarom heeft een groot netwerk zoals bijvoorbeeld een Wegener of TMG nog niet een eigen variant gebouwd van een veilingsysteem als Google Adwords, waarmee de kleine adverteerder in kan zetten op voldoende eyeballs. Ze gebruiken wel een advertentie netwerk zoals Adsense om hun inventory op te vullen, maar de eCPM daarvan is zo enorm laag. Ik snap dat ze vanwege ‘journalistieke onafhankelijkheid’ niet direct willen gaan werken aan CPA achtige modellen zoals affiliate netwerken, omdat daarmee de objectiviteit in het geding kan komen. Zoals de waard is vertrouwt hij zijn gasten tenslotte. Maar als ze nu ook aan de inkoperskant de long-tail zouden gaan gebruiken ontstaat er een balans. Marktplaats/Ebay heeft dit heel goed begrepen, schaalbare vraag, vraagt om een schaalbare aanpak.

Tipping Point
De vraag is alleen of het het tipping point niet allang geweest is voor de oude media mammoeten. Als er nu eens slagvaardige mensen zouden zitten en een raad van bestuur die er iets van zouden snappen is het probleem nog wel op te lossen, echter als ik kijk naar de huidige manier van handelen ben ik bang dat ze het volledig aan zichzelf te danken hebben, met of zonder staatsteun.

De volgende keer zal ik eens een rant loslaten over een andere nagel aan de doodskist van oude media. De linkeconomie en het totale onbegrip hiervan (tot aan nu.nl toe…)

Lekker spammen in de zon!

Ik zit er al een tijdje mee in mijn maag. Google doet haar stinkende best om sites die de index volspammen een lagere ranking te geven. Echter als ik nu na bijna twee jaar terugkijk op het anti-linkinkoop beleid van Google heeft het niet echt geleid tot een grote verbetering.

Sterker nog, de zaken staan er zo mogelijk nog slechter voor. Halve spamsites, van grote merken die grote risico’s nemen, staan nog steeds hoog in de index door bakken vol met startpagina-kloon links waar de relevantie nog steeds ver te zoeken is. Het is nog steeds niet onmogelijk, ook al zegt Google van wel, om sites door middel van link-inkoop uit de top 50 te krijgen. Verborgen tekst is weer stukken makkelijker geworden door allerlei jQuery-achtige oplossingen en thickboxen en sites die proberen waarde toe te voegen voor de gebruiker komen niet de top 10 binnen omdat ze nog niet genoeg ‘autoriteit’ hebben opgebouwd (lees: niet genoeg geld hebben om al die startpagina-kloon links te kopen, tot zover kwalitatieve link building).

Is het nu werkelijk zo dat Google het niet voor elkaar krijgt om al deze zooi op te ruimen? Moeten ze echt de hulp hebben van SEO’s om de SERP’s mooi schoon te krijgen? Is het nu echt nodig dat we gaan klikken om de index schoon te houden?

Als je bijv. op [vakantie egypte] zoekt staat de grootste “thin affiliate” van Nederland prima bovenaan. Misschien hoort deze daar zelfs wel, maar leg mij eens uit hoe je dit kunt rijmen met:

Thin affiliate sites: These sites collect pay-per-click (PPC) revenue by sending visitors to the sites of affiliate programs, while providing little or no value-added content or service to the user. These sites usually have no original content and may be cookie-cutter sites or templates with no unique content.

Ik kan er gewoon moeilijk bijkomen met mijn hoofd en kan me hier ook behoorlijk druk over maken. Veel bureau’s doen hun best om haar klanten een advies te geven dat aan de Google guidelines voldoet, of in ieder geval zeker niet over het randje te gaan. De basis van het bouwen van een goede site, een goede online presence en een online merk word door elk bureau netjes gepropageerd, zoals Google het graag ziet. En vervolgens zie je allerlei sites met toch wel discutable methodes gewoon nog steeds goed ranken. Frustrerend, en dit lees je ook met enige regelmaat terug in de Google webmaster forums

Wat is nu het punt van deze post?
“Don’t hate the players, hate the game.” Ik ben mijn frustratie kwijt en kan morgen weer met een frisse blik naar mijn werk bij Onetomarket kijken en wie weet adviseer ik ook wel een thickboxje meer aan mijn klanten, want er kunnen tenslotte makkelijk 500 extra woorden onder een ‘lees meer’ linkje, zodat je de gebruiker de best mogelijke ervaring levert…

Wat moeten we doen met black hats?

Ik zag een leuk idee en filmpje op seoptimise met de vraag: What should we do with black hats. Hieronder het filmpje en daarna ben ik wel benieuwd wat jullie vinden dat we met black hats moeten doen. Ik ben het met één mening eens die ik heb gehoord, die voor mij het meest zwaar telt.

Maar de hamvraag is dan natuurlijk:

wat vinden jullie dat er moet gebeuren met black hats?

Handmatige evaluaties door mensen

Dennis Sievers van Indenty stuurde me een persbericht met de vraag of ik hier wat aandacht aan wilde schenken. Dit persbericht kun je lezen op Netters, daar is het direct doorgeplaatst. Ik ben natuurlijk te eigenwijs om het door te plaatsen en heb er wat op gespeeld.Stel je voor…
Stel je voor dat je droom al jaren is om alleen met algoritmes de meeste belangrijke documenten kunt rangschikken op basis van enkele oude wetenschappelijke principes en slim omgaan met de data die je hebt. Dan heb je een gouden combinatie en een grote voorsprong op alle andere zoekmachines die nog steeds pagina’s aan de hand van alleen hun inhoud rangschikken.

Maar dan…
Dit merken zogenaamde zoekmachine optimalisatie specialisten en deze zorgen er voor dat je algoritmes moeten worden aangepast. Na verloop van tijd bestaat je rangschik principe niet meer uit 5 variabelen, maar uit zo’n slordige 200 variabelen. Dit omdat steeds meer mensen de gaten in je de algoritmes snappen, misbruiken en als ze een nieuwe hebben gevonden zelfs publiceren, zodat iedereen ze kan gebruiken. Ondertussen is het wel duidelijk geworden dat je droom over algoritmes om het internet te rangschikken zo ongeveer in duigen is gevallen.

Waardering van externe waarden?
Even wat punten om aan te kaarten waarom de droom uit elkaar is gespat bij waar hij begonnen is: Waardering van externe waarden.

  • PageRank verliest haar belang
  • Link commando’s worden uitgezet
  • Link inkoop mag niet meer

Handmatige evaluaties
Google is al geruime tijd overgestapt naar een ander principe. Iets dat ze lang ontkent hebben en iets dat ze nooit hebben gewild. Ze hebben zelfs Yahoo! en andere zoekmachines hier jarenlang om belachelijk gemaakt. Google maakt al een behoorlijk tijd gebruik van mensen die zoekresultaten evalueren op de rangschikking. Tot voor kort waren ze hier heel erg geheimzinnig over, maar in maart 2008 is een van de evaluatie documenten gelekt.

Google lijkt nu echt een ander pad te zijn ingeslagen. Steeds vaker komt er vanuit Google ook informatie over wat ze hebben gedaan en wat de richting is waar ze naar toe willen. Belangrijk is dan dat je tussen de regels blijft lezen over waar ze nu echt naar toe willen. Google (en ook Matt Cutts) geven vaak iets weg, maar dat houdt meestal in dat ze de aandacht willen afleiden van andere zaken.

Verdeel en heers
Een klein voorbeeld om te laten zien wat Google nu doet met de communicatie. Zoekresultaten schommelen bijvoorbeeld heel erg en ondertussen post Matt Cutts weer iets over PageRank. Hoewel hij ook al heeft gezegd dat hij graag minder aandacht hier aan wilde geven. Google gebruikt graag afleidingstechieken.

Moraal van het verhaal
Bedenk je dus goed waarom Google bepaalde informatie vrijgeeft, want ook dit artikel, waar Identy naar verwijst en haar persbericht heeft gebaseerd heeft een achterliggende reden. Enige wat we ons moeten afvragen is vooral waarom juist nu? (omdat subdomein spam nog steeds werkt als een trein? omdat ze nog steeds niet in staat zijn om hoog rankende spam netwerken op ter rollen? of enorme linkfarms kunnen blokkeren? Genoeg redenen te bedenken in ieder geval).