088 - 120 34 00

Vier duplicate content problemen die een programmeur kan voorkomen

Jaimie Sirovich en Christian Darie hebben een boek geschreven wat van mij een standaardwerk mag worden voor PHP programmeurs. Het heet “Professional Search Engine Optimization with PHP” en het geeft een erg goede inleiding voor de programmeur die nog niets / nog niet zo veel van SEO af weet. Het boek is al gereviewed op Netters en op Monlog, dus ik wilde er voor kiezen om een iets andere aanpak te nemen. Aan de hand van het boek geef ik in het kort vier oplossingen voor veelgemaakte SEO fouten door programmeurs, die duplicate content problemen veroorzaken. Als je dan nog niet denkt: dat boek moet ik hebben, dan hoef je het boek misschien ook wel niet te hebben.

1. SESSIONID’s

Het gebeurt nog steeds érg vaak dat we sites tegen komen met sessie-id’s in de URL. Iedere keer als een zoekmachine spider langs komt krijgt deze dan een andere sessie ID mee, waardoor deze continu nieuwe URL’s vindt. Dit is een van de aller simpelste problemen om op te lossen in PHP, en het verschil kan echt enorm zijn. Je zet sessie id’s uit door de volgende waardes aan je .htaccess file toe te voegen:

php_value session.use_only_cookies 1
php_value session.use_trans_sid 0

Mocht je daar geen toegang toe hebben dan kan het eventueel ook in PHP. Als je site al geïndexeerd is met sessie id’s in de URL, dan is het vaak wel verstandig om te zorgen dat deze geïndexeerde URL’s ge-301 redirect worden naar de goede URL. Meer informatie daarover vind je hier.

2. Parameters in meerdere volgordes mogelijk maken

In PHP maakt het niet uit in welke volgorde de parameters van een URL staan, dus deze twee URL’s geven in veel gevallen hetzelfde resultaat:

http://www.example.com/?product=1&category=2&sub_category=3
http://www.example.com/?product=1&sub_category=3&category=2

Voor Google zijn dit echter twee totaal verschillende URL’s. Ook al gebruik je binnen je site alleen maar variant 1, een kwaadwillende concurrent zou een paar kaar naar variant 2 kunnen linken en je daarmee een heleboel duplicate content problemen kunnen geven. Jaimie’s boek geeft een prima oplossing door middel van een zogenaamde URL-factory, die continu checked of de huidige URL wel de URL is zoals je die wil hebben binnen je systeem.

3. Affiliate pagina’s

Een aantal (ondertussen toch wel ouderwets te noemen) affiliate programma’s gebruiken nog steeds links in de vorm http://www.example.com/?aff=123. De simpelste vorm om hier mee om te gaan is bij het openen van zo’n pagina de affiliate ID op te slaan in de sessie en dan te 301 redirecten naar de eigenlijke pagina, daarmee voorkom je dat zoekmachines de affiliate URL indexeren.

4. Een product in meerdere categorieën vindbaar laten zijn

Als je een product site voor schoenen hebt, met een categorie sportschoenen en een categorie sneakers, dan kan het erg makkelijk zijn om een schoen in beide categoriën te laten vallen. Wat dan vaak gebeurt is dat de pagina van die schoen op twee manieren opvraagbaar is, bijvoorbeeld:

http://www.example.com/schoenen/sneakers/schoen-x/
http://www.example.com/schoenen/sportschoenen/schoen-x/

Als de pagina van die schoen dan 2x maal exact of bijna hetzelfde is, levert dat een behoorlijk groot duplicate content probleem op. Bovendien verdeel je de links dan, gebruik A linkt naar de eerste URL, gebruiker B naar de tweede enz. Zo kan het gebeuren dat beide URL’s dan 4-5 specifieke deeplinks hebben. Als dan een concurrent met 1 pagina over die schoen 7 links naar die ene pagina heeft, zou je het zomaar alsnog kunnen verliezen in de zoekresultaten.

Conclusie

Voor al deze problemen levert het boek een prima oplossing, ik wil het bij deze dan ook aanraden aan iedere (PHP) programmeur.

Wil je jouw online marketing samen met ons naar een hoger niveau tillen? Laat dan je gegevens achter, dan nemen wij contact met je op!

onze partners