088 - 120 34 00

SEO: oorzaak en gevolg

De zoekmachine optimalisatie wereld is een aparte wereld, er wordt veel nagepraat, waarbij vaak de onderbouwing of een goede testmethode voor deze onderbouwing ontbreekt. “Het staat geschreven” lijkt hier veel waarde te hebben, terwijl juist de goede onderbouwing door middel van een goede test belangrijk is.

Onlangs kwam ik in de LinkedIn groep “Zoekmachine Marketing” (om deze pagina te kunnen bekijken moet je lid van deze groep zijn) de discussie tegen omtrent een nieuwe online tool die een website analyseert op SEO punten. De meeste van dit soort tools kunnen je op een goede manier helpen bij het bepalen van twee dingen: de techniek van een website en het aantal backlinks dat een website heeft. Deze nieuwe tool van SEOlab.nl hangt ook een SEO waardeoordeel aan de website, compleet met eigen ranking. Hier gaat het echter mis: de rankings zijn globaal over alle soorten branches én alle TLD’s, wat het vellen van een globaal oordeel lastig zo niet onmogelijk maakt. Daarnaast kan je met alleen het vergaren van technische informatie zonder verdere analyses erg moeilijk voorspellen hoe goed de SEO van een website is.

De wet van oorzaak en gevolg

Wat mij echter het meest stoort aan deze (en andere) tools, is dat er uit wordt gegaan van de kennis die standaard als waarheid aangenomen wordt. Waardoor weer meer mensen deze onwaarheden als feiten aan gaan nemen.

Waar gaat het hier specifiek dan om? Dat bijvoorbeeld het gebruik van een H1 (tm H6) zal leiden tot betere rankings. Dit is pertinent onwaar. De oorzaak is in dit geval verkeerd toegewezen aan het gevolg: het toevoegen van (de extra vermelding van) de keywords op de pagina heeft geleid tot de verbeteringen. Het wel of niet gebruiken van een H1 tag heeft daar niks mee te maken gehad. Natuurlijk is dit makkelijk met elkaar te verwarren als er niet getest wordt of met bijvoorbeeld een strong of span-tag hetzelfde wordt bereikt. In een geïsoleerde testomgeving werd er door Onetomarket geen causaal verband tussen het gebruik van Hx-tags en rankings in Google aangetoond. Ook andere onderzoeken onderbouwen deze conclusie.

Natuurlijk zal ook Onetomarket aanraden om nette headings te gebruiken, echter heeft dit een semantische achtergrond. Er wordt gekozen om nette “koppen” te gebruiken, met (natuurlijk) het daarbij horende nette gebruik van keywords in deze Hx-tag. Puur semantisch correct gebruik van de in HTML gespecificeerde tags, met als voordeel een mooie positie om een keyword in te gebruiken. Wil je de verwachtingen naar een klant helder hebben wanneer zij de op hun website gebruikte strong-tags willen vervangen naar H1, wees dan duidelijk: de voordelen zijn alleen semantisch, rankings ga je er niet mee winnen.

Overige missers

Ook wordt er de fout in gegaan door waarde toe te kennen aan het gebruik van de robots Meta keywords, ondanks dat Google (bevestigd door meerdere bronnen) en andere zoekmachines deze al lang helemaal niet meer gebruiken in de berekening om tot een rankings te komen.

Robots.txt wordt ook magische krachten toegekend, dit terwijl deze alleen (beperkte) meerwaarde heeft voor het verwijzen naar een XML sitemap. Immers, waarom zou je bepaalde pagina’s (voor bijvoorbeeld andere bestanden kan je beter de X-Robots HTTP header gebruiken) op disallow zetten? In bijna alle gevallen is het raadzamer om hiervoor noindex,follow te gebruiken. Op deze manier wordt linkwaarde (intern, maar ook extern) in ieder geval nog wel verdeeld naar de pagina’s waar naar gelinkt wordt vanaf de noindex pagina. Hou er hierbij rekening mee dat een disallow in robots.txt helemaal niks zegt over het wel of niet indexeren van deze pagina/map, alleen dat de bot deze pagina niet mag bezoeken (indexatie wanneer een pagina is uitgesloten door middel van robots.txt is gewoon mogelijk).

Puntsgewijs nog een aantal punten die discutabel zijn:

  • Gebruik van flash wordt standaard als negatief bestempeld, maar hoeft bij juist gebruik niet negatief te zijn.
  • Om te testen of er een XML sitemap wordt gebruikt, wordt alleen gekeken naar “sitemap.xml”. Wanneer deze niet gevonden wordt is dit negatief.
  • PageRank is leuk, maar niet meer dan dat. Je kan er geen SEO waarde aan koppelen, immers weet je niks over rankings/focus keywords/etc.

Om duidelijk te zijn: ik vind de scan an sich niet slecht, echter moet dit niet in de markt gezet worden als SEO scan, maar als technische scan. Waarbij de gebruikers zelf hun conclusies moeten trekken en de automatische SEO-waardeberekening achterwege wordt gelaten. Nu is het slechts een verzameling van technische data van andere bronnen (en een linkbait actie (mooie link staat hierboven 😉 )), maar een slechte manier om je conclusies op deze manier voor te laten schotelen.

Overigens zijn er meer van soortgelijke online tools te vinden, waarbij bovenstaande bijna altijd geldt. Mijn advies is hierbij dat je altijd zelf je conclusies moet trekken en niet uit moet gaan van de conclusies die een tool je voorschotelt. De data is in veel gevallen nuttig, maar alleen als je deze juist weet te interpreteren!

Jouw vraag voor een speeddate van 15 minuten met het team

onze partners