Welke elementen bevat een goede SEO-audit?



Een SEO-audit ziet er voor velen erg technisch uit. Dat is het natuurlijk voor een deel ook, maar wij ondersteunen je hier graag bij. Voor iedere site is er steeds ruimte voor verbetering. Heb je geen vermoeden of jouw site duplicate content bevat? Ben je niet zeker of jouw site wel mobielvriendelijk is? Geen idee wat een XML-sitemap is? Lees deze blog en SEO-termen worden voor jou kinderspel.

Waarom zijn de technische SEO-elementen cruciaal?


Je hebt bijvoorbeeld een site met aanzienlijk goede inhoud die ook andere kwalitatieve sites kan overhalen om naar jou te linken. Opdracht volbracht? Natuurlijk niet, want als Google-bots jouw pagina’s niet voldoende kunnen crawlen, zullen deze laatste ook niet geïndexeerd worden. Ze zullen bijgevolg ook niet in de zoekresultaten getoond worden. Het is daarom van essentieel belang om je verder bewust te worden van de technische elementen van SEO.


Welke SEO-elementen moet je controleren?


Stel crawlingproblemen vast met een crawl rapport


Door een rapport op te stellen over jouw site stel je vast hoe het gesteld is met alle technische SEO-elementen. Het informeert je over mogelijke duplicate content, de laadsnelheid, de page titles, de H1 en H2-tags, …

Om je te helpen, kun je beroep doen op tools zoals Screaming Frog.


Crawlen en indexeren


Het voorbeeld dat hierboven werd beschreven, brengt ons meteen bij het eerste beduidend punt. Zoekmachines doen 3 dingen:
  1. Crawlen van een pagina op een website betekent op zoek gaan naar essentiële content voor specifieke zoekopdrachten.
  2. Wanneer essentieel genoeg, wordt de pagina geïndexeerd met de inhoud, de meta-informatie en de locatie van die pagina.
  3. Indien iemand dan een specifieke zoekopdracht doet in Google, worden de meest relevante resultaten weergegeven op basis van de index.
Met andere woorden betekent niet gecrawld geen indexering en dus ook geen kans om in de zoekresultaten te verschijnen. Zoek dus uit welke pagina’s van jouw website niet geïndexeerd werden en zoek een oplossing.


Hoe weet je welke pagina’s geïndexeerd werden?

  1. Een eerste idee kan reeds verkregen worden in de zoekbalk. Dit doe je door site: gevolgd door de URL van jouw site zonder de http://www in te geven. Deze methode is niet volledig waterdicht. Het verschil alleen al tussen Google.be en Google.nl van het aantal geïndexeerde pagina’s is groot. Wanneer jouw site niet bovenaan in de zoekresultaten staat, is het heel gebeurlijk dat je jouw eigen site belemmert om geïndexeerd te worden.
  2. Wanneer je meer zekerheid wil, kies dan voor Google Search Console. Deze tool zegt niet alleen hoe vaak jouw site gecrawld werd, maar ook hoeveel pagina’s daadwerkelijk geïndexeerd werden.
  3. Ook via Google Analytics kan je een beeld krijgen van het aantal unieke pagina’s dat door de Google-bot minimum één keer gecrawld werd. Werkwijze? Rapportage > Acquisitie > Zoekmachineoptimalisatie > Bestemmingspagina.

Kom hier meer te weten over indexeren.


Controleer de HTTPS status codes


Alle pagina’s op jouw site https maken, is een vereiste. Indien niet, hebben robots noch bezoekers toegang tot jouw webpagina’s. Er zal slechts een 4xx en 5xx http status code verschijnen.

Daarenboven is https een rankingfactor voor Google. Indien je nog pagina’s met http hebt, zullen deze het niet goed doen in de ranking.

Doe hier opnieuw beroep op Google Search Console. Controleer op mogelijke andere status code errors en los ze zo snel mogelijk op.


Robots.txt


We hebben het hier over een bestandje dat je op jouw site kan plaatsen waarmee je de Google-bots uitlegt welke pagina’s ze mogelijkerwijs niet mogen crawlen. Een voorbeeld hiervan kan zijn de check-outpagina van jouw webshop.

Met dat bestandje kan je ook belemmeren dat bepaalde zoekmachines jouw site crawlen. Onthoud dat het crawlen van jouw website ook nadelig kan zijn voor de laadsnelheid, daarom valt hier over na te denken.

Controleer tegelijkertijd ook met behulp van Google Search Console of deze file niet per ongeluk bepaalde robots belemmert om jouw site te crawlen.

Meer te weten komen over Robots.txt? Klik dan hier.


Controleer XML sitemap status


Aan de hand van een XML-sitemap geef je in feite een plattegrond van jouw site aan Google (of andere bots) waardoor ze jouw site nog makkelijker kunnen detecteren.

Voor meer informatie kan je hier terecht.

Eenmaal jouw sitemap klaar is, kan je deze laten zien aan de Google bots door de hulp van de Sitemap tool in Google Search Console.


Canonicalization


Een canonical tag is wenselijk wanneer je verschillende pagina’s op jouw site hebt met ieder een unieke URL die niettemin bijna identieke inhoud bevatten. Gebruik je deze niet dan is dit nadelig voor de page authority van de betreffende pagina’s.

De linkwaarde die jouw site op een andere wijze zou krijgen via een inbound link naar één pagina, wordt zonder canonical tag verspreid over de pagina’s met gelijke content. Vanuit SEO-perspectief is het aanzienlijk interessanter dat louter één pagina de volle linkwaarde van de inbound link bekomt.

Daarnaast worden deze pagina’s met gelijke content, zonder canonical tag als duplicate content aangezien. Dat is dan opnieuw ongunstig voor jouw voorstelling in de SERP.

Om dit allemaal te voorkomen voer je dus best een rel=“canonical”-tag in. Die tag plaats je in de html header. Zo weten de zoekmachines welke pagina de relevantste is van alle pagina’s met dezelfde inhoud.


Laadsnelheid


Eveneens een cruciaal punt om na te gaan is de laadsnelheid van jouw site. Een te trage laadsnelheid heeft ten eerste een negatieve invloed op de gebruikerservaring. Verder zorgt het voor een hogere bounce rate en een kortere time on page. Laat deze twee nu net ook twee rankingsfactoren zijn die zoekmachines toepassen.

Om na te gaan wat de laadsnelheid van een URL is, kan je Google Pagespeed Insights gebruiken.

Na de invoering van de mobile-first indexering door Google is de laadsnelheid nog belangrijker geworden. De algemene regel is dat de laadsnelheid van een pagina, desktop en mobiel, minder dan drie seconden moet bedragen.

Hier een paar tips:
  1. Maak gebruik van de eerder aangehaalde tool Pagespeed Insights of GTMetrix om te analyseren welke pagina’s traag laden, wat de oorzaak is en hoe dit op te lossen is.
  2. Bekijk absoluut ook eens kritisch of de hedendaagse hosting van jouw site de meest geschikte laadsnelheid vaan jouw site levert.
  3. Maak alles op jouw site zo beknopt mogelijk. Kies bijvoorbeeld voor gecomprimeerde afbeeldingen die kleiner zijn dan 50kb. Leeg geregeld de caching van jouw site. Ga op zoek naar broken links en haal ze weg. Besteed speciale aandacht aan een nette html.


Mobiel


Surfen en shoppen gebeurt steeds meer mobiel. Google beloont dan ook al drie jaar sites die mobielvriendelijk zijn met een mogelijk hogere ranking in de SERP. Een site die ook op mobiel een goede laadsnelheid en een goede en duidelijk structuur heeft, is voor Google relevant. Een responsive design is dus van groot belang.

Twee aparte websites maken is niet nodig. Het brengt niet alleen veel kosten met zich mee, maar het vergt ook dubbel zoveel werk met updates.

Hier kun je alvast testen hoe mobielvriendelijk jouw site is.

Voorzie overigens een duidelijk call-to-action button, of meerdere, en voorkom het gebruik van pop-ups, flash, zooming, enzovoort.


Controleer op tweevoudig gebruik van zoekwoorden


Indien de zoekmachine’s twee pagina’s vinden op jouw site die inzetten op een identiek zoekwoord, raken ze verward. Dit kan een lagere CTR, lagere page authority en een lagere conversieratio tot gevolg hebben.

Om na te gaan welke pagina’s op jouw site op een gelijk zoekwoord mikken, ga je in Google Search Console op zoek naar het prestatierapport.


Check de meta descriptions


Spoor duplicate meta descriptions en mankerende meta descriptions op.

Voornamelijk dat eerste is een bekend en veel voorkomend SEO-knelpunt bij hele grote sites met een grote hoeveelheid pagina’s.

Een tool zoals Screaming Frog kan helpen om de meta descriptions van jouw site te detecteren. Neem verder zeker je tijd om voor een reeks relevante pagina’s een unieke meta description te schrijven.


Lengte meta description


Nu je toch bezig bent met het bewerken van de pagina’s met een zelfde meta description, kan je onmiddellijk ook een blik slaan op de lengte ervan. Het kan een positieve invloed hebben op de CTR vanuit de SERP naar jouw pagina’s.

In de voorbije zes maanden heeft Google heel wat gegoocheld met de lengte van meta descriptions.

Lees hier meer over de wenselijke lengte van een meta description.


Check op broken links


Om te eindigen, spoor je ook best de broken links op. Broken links verspillen niet alleen een deel van je crawl budget, ze zorgen eveneens voor een negatieve gebuikservaring en leiden tot een lagere ranking.

Broken links kun je opsporen met behulp van deze link.


Conclusie


Er zijn dus een heleboel SEO-elementen die je kan gebruiken in een uitvoerige SEO-analyse van jouw site.
Alvast veel succes!