De zoekmachine optimalisatie wereld is een aparte wereld, er wordt veel nagepraat, waarbij vaak de onderbouwing of een goede testmethode voor deze onderbouwing ontbreekt. “Het staat geschreven” lijkt hier veel waarde te hebben, terwijl juist de goede onderbouwing door middel van een goede test belangrijk is.
Onlangs kwam ik in de LinkedIn groep “Zoekmachine Marketing” (om deze pagina te kunnen bekijken moet je lid van deze groep zijn) de discussie tegen omtrent een nieuwe online tool die een website analyseert op SEO punten. De meeste van dit soort tools kunnen je op een goede manier helpen bij het bepalen van twee dingen: de techniek van een website en het aantal backlinks dat een website heeft. Deze nieuwe tool van SEOlab.nl hangt ook een SEO waardeoordeel aan de website, compleet met eigen ranking. Hier gaat het echter mis: de rankings zijn globaal over alle soorten branches én alle TLD’s, wat het vellen van een globaal oordeel lastig zo niet onmogelijk maakt. Daarnaast kan je met alleen het vergaren van technische informatie zonder verdere analyses erg moeilijk voorspellen hoe goed de SEO van een website is.
De wet van oorzaak en gevolg
Wat mij echter het meest stoort aan deze (en andere) tools, is dat er uit wordt gegaan van de kennis die standaard als waarheid aangenomen wordt. Waardoor weer meer mensen deze onwaarheden als feiten aan gaan nemen.
Waar gaat het hier specifiek dan om? Dat bijvoorbeeld het gebruik van een H1 (tm H6) zal leiden tot betere rankings. Dit is pertinent onwaar. De oorzaak is in dit geval verkeerd toegewezen aan het gevolg: het toevoegen van (de extra vermelding van) de keywords op de pagina heeft geleid tot de verbeteringen. Het wel of niet gebruiken van een H1 tag heeft daar niks mee te maken gehad. Natuurlijk is dit makkelijk met elkaar te verwarren als er niet getest wordt of met bijvoorbeeld een strong of span-tag hetzelfde wordt bereikt. In een geïsoleerde testomgeving werd er door Onetomarket geen causaal verband tussen het gebruik van Hx-tags en rankings in Google aangetoond. Ook andere onderzoeken onderbouwen deze conclusie.
Natuurlijk zal ook Onetomarket aanraden om nette headings te gebruiken, echter heeft dit een semantische achtergrond. Er wordt gekozen om nette “koppen” te gebruiken, met (natuurlijk) het daarbij horende nette gebruik van keywords in deze Hx-tag. Puur semantisch correct gebruik van de in HTML gespecificeerde tags, met als voordeel een mooie positie om een keyword in te gebruiken. Wil je de verwachtingen naar een klant helder hebben wanneer zij de op hun website gebruikte strong-tags willen vervangen naar H1, wees dan duidelijk: de voordelen zijn alleen semantisch, rankings ga je er niet mee winnen.
Overige missers
Ook wordt er de fout in gegaan door waarde toe te kennen aan het gebruik van de robots Meta keywords, ondanks dat Google (bevestigd door meerdere bronnen) en andere zoekmachines deze al lang helemaal niet meer gebruiken in de berekening om tot een rankings te komen.
Robots.txt wordt ook magische krachten toegekend, dit terwijl deze alleen (beperkte) meerwaarde heeft voor het verwijzen naar een XML sitemap. Immers, waarom zou je bepaalde pagina’s (voor bijvoorbeeld andere bestanden kan je beter de X-Robots HTTP header gebruiken) op disallow zetten? In bijna alle gevallen is het raadzamer om hiervoor noindex,follow te gebruiken. Op deze manier wordt linkwaarde (intern, maar ook extern) in ieder geval nog wel verdeeld naar de pagina’s waar naar gelinkt wordt vanaf de noindex pagina. Hou er hierbij rekening mee dat een disallow in robots.txt helemaal niks zegt over het wel of niet indexeren van deze pagina/map, alleen dat de bot deze pagina niet mag bezoeken (indexatie wanneer een pagina is uitgesloten door middel van robots.txt is gewoon mogelijk).
Puntsgewijs nog een aantal punten die discutabel zijn:
- Gebruik van flash wordt standaard als negatief bestempeld, maar hoeft bij juist gebruik niet negatief te zijn.
- Om te testen of er een XML sitemap wordt gebruikt, wordt alleen gekeken naar “sitemap.xml”. Wanneer deze niet gevonden wordt is dit negatief.
- PageRank is leuk, maar niet meer dan dat. Je kan er geen SEO waarde aan koppelen, immers weet je niks over rankings/focus keywords/etc.
Om duidelijk te zijn: ik vind de scan an sich niet slecht, echter moet dit niet in de markt gezet worden als SEO scan, maar als technische scan. Waarbij de gebruikers zelf hun conclusies moeten trekken en de automatische SEO-waardeberekening achterwege wordt gelaten. Nu is het slechts een verzameling van technische data van andere bronnen (en een linkbait actie (mooie link staat hierboven 😉 )), maar een slechte manier om je conclusies op deze manier voor te laten schotelen.
Overigens zijn er meer van soortgelijke online tools te vinden, waarbij bovenstaande bijna altijd geldt. Mijn advies is hierbij dat je altijd zelf je conclusies moet trekken en niet uit moet gaan van de conclusies die een tool je voorschotelt. De data is in veel gevallen nuttig, maar alleen als je deze juist weet te interpreteren!
Prima post en je haalt goeie punten aan, hoewel ik het tooltje (en ook die eigen ranking) wel erg goed in elkaar vind zitten.
Daarnaast kan ik goeie linkbait-acties wel waarderen natuurlijk.
Helemaal eens met bovenstaande punten. Die scans zijn een aardig uitgangspunt, niet meer dan dat. De benoemde scan van SEOlabs komt mij overigens wel erg bekend voor.. WooRank anyone? Zelfde engine, layout etc. alleen ander logo boven geplaatst. Beetje jammer.
@Richard: het is in sommige opzichten ook een handige tool, alleen moeten “rankings” niet uit zo’n tool komen. Qua linkbait begrijp ik je helemaal 😉
@Jorn Moraal: Ik had hem nog niet naast WooRank gehouden, maar inderdaad, het lijkt er erg veel op.
Helemaal mee eens. SEO Scan is een marketing naam waardoor de ontvanger sneller snapt waar het heen kan leiden. Het behoeft altijd nog een strategische analyse om de punten daaruit juiste te kunnen interpreteren. Er zijn verbanden en deze moeten wel gezien worden. Helaas zien eigenaren dit niet, maar ook bij webdesigners wordt het verband nog wel eens gemist.
@Marco Lequin: Precies, er wordt dan op de verkeerde punten gestuurd, wat leidt tot teleurstelling. Teleurstelling in het bedrijf, maar ook in SEO in het algemeen.
Ik vind de tool zeer handig in gebruik. Het is handig om even snel een scan te maken van een pagina om te kijken waar er nog verbeterpunten liggen.
De scan is natuurlijk nog wel uit te breiden met extra informatie omtrent een website. Het aantal links en de sterkte hiervan, de pagerank die bij de inkomende links hoort, welke anchor teksten het meeste linken naar een pagina en bijvoorbeeld verbeterpunten..
Maar 1 ding is zeker. Ik vind de tool zeer goed en eenvoudig in gebruik!
Ik gebruik deze tool voor veel websites om zwakke punten bloot te leggen. Uiteraard kan je er niet alles aan ophangen, maar vind het toch een zeer handige tool.
Hi Joey,
De tools is ook handig, maar de SEO conclusies zijn gevaarlijk en kunnen je veel extra werk kosten zonder dat ze daadwerkelijk wat op gaan leveren. Daarom ook de waarschuwing niet blind van dit soort tools uit te gaan.
Sander