Canonical tags, hreflang tags, noindex tags, robots.txt zal de meeste ondernemers als abracadabra in de oren klinken. Desalniettemin, zijn dit belangrijke onderdelen van website marketing.

Er zijn tegenwoordig veel zelfverklaarde SEO specialisten. In tegenstelling tot de medische wereld of de advocatuur, is er niet zoiets als een deken die waakt over het beroep. Het is een vrij beroep en iedereen mag zichzelf SEO specialist noemen. Er zijn veel SEO specialisten in Nederland die op zich wel weten hoe zoekwoorden onderzoek en website inhoud te verzorgen, maar toeten noch blazen weten omtrent het technische aspect onder de motorkap. Dat is echt weer een vak apart.

Mijn specialiteit is dan juist technische SEO. Dit vind ik persoonlijk het leukste onderdeel van SEO. Ik stoei bijv. graag met hreflang tags. Hreflang tags zijn speciale stukjes code die noodzakelijk zijn op juiste wijze aan te brengen in je website wanneer je internationaal gaat. Dus wanneer je ook bijv. een Duitstalige of Franse versie van je website lanceert, en tegelijkertijd Duitsland, Oostenrijk, Zwitserland en Frankrijk wilt aanspreken, de landen waar ze (deels) Frans en Duits spreken dus, dan zijn hreflang tags onontbeerlijk.

Er zijn verhalen de ronde gegaan dat technische SEO minder belangrijk zou worden. Dit is in zekere zin waar, veel website systemen zoals bijv. Lightspeed en Shopify die spreiden het SEO bedje al een beetje. En WordPress/Woocommerce is ook geen hogere wiskunde om te gebruiken. Maar de technische details kunnen sites maken of breken.

Voorbeeld. Ik heb een klant, zal niet bij naam noemen maar is een interieur specialist. Zij hebben een NL en een BE website voor Vlaanderen. Enfin, de hreflang tags stonden verkeerd afgesteld dankzij de webdesigner die overduidelijk geen kaas gegeten heeft van SEO. Hey, lezer, ben jij een webdesigner? Schoenmaker houd je bij je leest! Enfin, de code stond zo afgesteld dat aan Google verteld werd dat de website is voor sprekers van het Wit-Russisch in Nederland (BElarus-NL). Kans is aanwezig dat Wit-Russische expats niet jouw beoogde doelgroep is met de .be website. Al is de situatie in Belarus momenteel nijpend natuurlijk met Loekasjenko, dus kan best dat deze webdesigner een voorspellende gave had, want de hoeveelheid Wit-Russische vluchtelingen zal toenemen. Maar goed, laten we geen politieke randverhalen oprakelen. Enfin, voor een technische SEO specialist zoals ondergetekende koud kunstje om de code juist af te stellen. Het resultaat? De Belgische website kwam tot het ontdekken van dit euvel totaal niet van de grond. Na deze switch, na ca. 2 weken schoot men naar de top 3 in Google.be voor de meest belangrijke termen. Op zo een wijze betaald een technische SEO specialist zichzelf dubbel en dwars!

Ter lering ende vermaeck zal ik bij deze ook nog een top vijf technische blunders, anekdotes vernomen van concullega’s.

1. Bij een webwinkel klant besloot de leiding marketing daar dat men op een vrijdagmiddag SSL zou moeten installeren voor alle webshops. De spoedklus op tijdens de vrijmibo liep wat anders dan gewenst en de Duitse en Engelse versie van de website verwezen hierdoor, door naar de NL website. Dus de Duitse en UK versie van de website waren niet meer individueel bereikbaar en verwezen door naar NL.

2. Client side JavaScript (JS) paginatie. Begrijp het web crawlen kost Google veel geld. JS crawlen is 100x duurder dan HTML. Dus komt het op de to do lijst. Kan weken overheen gaan. Dus zo kun je niet concurrerend zijn. Bij webwinkels is het zo dat om bij sommige producten te komen, dit alleen kan via de paginatie. Wat is paginatie? Dat is zeg maar dat niet alle producten op 1 pagina staan, omdat te lange pagina zou worden, dus die staan verdeeld. Dan heb je doorgaans onderaan, een vorige en volgende knop, om te bladeren tussen de producten pagina’s. De webwinkel in kwestie had dit op een wijze geprogrammeerd die lastig (lees duur) te verteren is voor de zoekmachine. En om die reden duurt het een eeuwigheid voordat Google deze nieuwe producten verscholen achter de paginatie knop vond. Oplossing? Server side of reguliere HTML toepassing.

3. Hardcoded canonicals van staging naar productie. Dus de echte ‘live’ website verwees terug naar de stellage. Voor SEO absoluut niet handig. Wanneer een test website live gaat, dien je met name de head sectie van de code te controleren, of die met bepaalde code elementen niet terug verwijst naar de stellage site.

4. JS in de head sectie van de code (te hoog). Daardoor stopte Google met crawlen head, en werd de canonical tag als ware verplaatst naar de body sectie. Maar daar verwacht Google de canonical niet. Dus een t-shirt in 40 kleuren werd de canonical overal genegeerd. Wat zorgt voor veel duplicate content. Op zich geen probleem, maar wel veel crawl bloat. Google is veel tijd kwijt met het doorspitten van pagina’s die er eigenlijk niet toedoen en wellicht geen tijd meer over heeft voor pagina’s die er wel toe doen.

5. Te gung ho met de disavow tool. Deze is verstopt om een reden… De disavow tool van Google is een soort biecht functie van Google omtrent slechte verwijzingen naar jouw website op te biechten. Of anderzijds indien je geen inbreng had met de tot stand komen van de links kun je zeggen tegen Google als het ware, ik ben me bewust van het bestaan van deze links, ik had hier geen inbreng in en ik wil me hiervan distantiëren. Het probleem met deze tool in de handen van een leek is dat je jezelf in de voet kan schieten. Want je haalt de angel uit de link. Positief of negatief. Wat je dus ziet dat een leek lukraak rucksigtlos links gaat afwijzen die in werkelijkheid waarde doorgaven aan zijn of haar website. Als gevolg maakt de website een flinke daling mee in de zoekresultaten. Om die reden heeft Google de disavow tool een beetje verstopt. Je kunt deze niet makkelijk vinden. Laat het over aan de link professionals…

Om al die redenen is het dus ten zeerste aan te bevelen om een technische SEO specialist in de arm te nemen…