Hoe duplicate content je SEO beïnvloedt: oorzaken, gevolgen en oplossingen
Duplicate content is een begrip binnen de wereld van zoekmachineoptimalisatie (SEO) en verwijst naar het fenomeen waarbij identieke of bijna identieke inhoud op meerdere plaatsen op een website of op het internet voorkomt. In deze blog zullen we de volgende punten kort even bespreken:
- Wat is duplicate content precies?
- Welke soorten duplicate content zijn er?
- Oorzaken van duplicate content
- Hoe gaat Google om met duplicate content?
- Gevolgen voor SEO
- Methoden om duplicate content te ontdekken
- Hoe duplicate content oplossen?
Wat is duplicate content precies?
Duplicate content, ofwel dubbele inhoud, betekent dat er identieke of bijna identieke inhoud is op meerdere webpagina’s binnen dezelfde website of op verschillende websites.
Welke soorten duplicate content zijn er?
Er zijn verschillende soorten duplicate content, waaronder:
- Echte duplicate content: webpagina’s die 100% gelijk zijn aan elkaar.
- Bijna duplicate content: webpagina’s die slechts een klein verschil vertonen.
- Externe duplicate content: webpagina’s die identiek zijn aan de inhoud van andere websites.
Oorzaken van duplicate content
Duplicate content kan per ongeluk ontstaan door verschillende oorzaken, zoals:
- URL-varianten zoals www en non-www: waarschijnlijk de grootste veroorzaker van duplicate pages. Zowel de www als de non-www pagina’s worden in dit geval geïndexeerd.
- Trailing slashes in URL’s: technisch gezien is een URL met trailing / een andere dan een URL zonder de /.
- Het gebruik van HTTP en HTTPS: de huidige standaard is dat een website https is, de kans is aanwezig dat per ongeluk zowel de https als de http pagina’s worden geïndexeerd.
- Test websites die per ongeluk geïndexeerd worden: de duplicate content ontstaat zodra een nieuwe website ‘onder constructie’ wordt ontwikkeld. Meestal gebeurd dat onder een nieuwe URL. Maar het gebeurt vaak dat de ontwikkelaars na de live-gang vergeten de onder-constructie-site te blokkeren voor de crawlers/. Dus de pagina’s van de onder-constructie-site en de vernieuwde site worden geïndexeerd.
- Interne zoekresultaten die geen unieke content bevatten.
- Parameters en filters die dezelfde content beschikbaar maken via verschillende URL’s: website maken hier dezelfde content beschikbaar via verschillende URL’s door toevoeging van een sessie-ID en andere URL’s parameters.
- Productvarianten op webshops.
- Gekopieerde content van andere websites.
Methoden om duplicate content te ontdekken
Er zijn verschillende tools beschikbaar om duplicate content te ontdekken, zoals Google Search Console, site: command in zoekmachines, en online tools zoals Plag Spotter en Copyscape zijn handig om dubbele teksten op te sporen.
Hoe gaat Google om met duplicate content?
Google streeft ernaar om gebruikers kwalitatieve zoekresultaten te bieden en filtert duplicate content uit de zoekresultaten. Het algoritme van Google is ontworpen om duplicate content automatisch te detecteren en te bepalen welke versie het meest relevant is voor een specifieke zoekopdracht.
Gevolgen voor SEO
Duplicate content kan verschillende problemen veroorzaken voor SEO, waaronder:
- Minder online verkeer door lagere posities in de zoekresultaten.
- Verspilling van het crawl budget door het crawlen van duplicate content.
- Mogelijk verkeerde versie van de pagina wordt getoond in zoekresultaten.
- Vermindering van linkwaarde door verspreiding van links over duplicate pagina’s.
- Risico op een Google-penalty bij misbruik van duplicate content.
Hoe duplicate content oplossen?
Om duplicate content aan te pakken, kunnen er verschillende technieken worden toegepast, waaronder:
- Redirect 301 om pagina’s permanent te verplaatsen: Dus als een bezoeker op URL1 (de oude of slechte pagina) komt, wordt hij via de 301 doorverwezen naar de nieuwe, betere URL2.
- Verwijderen van gedupliceerde content met een 404-errorpagina: Indien de content echt geen waarde heeft qua zoekverkeer en links, dan is dit een correcte oplossing.
- Gebruik van de canonical tag om de voorkeurs-URL aan zoekmachines bekend te maken: Hiermee zeg je aan Google dat het de linkwaarde aan de originele, beste pagina dient toe te kennen.
- Robots.txt: Een andere optie is de gedupliceerde pagina’s toegankelijk te laten voor online bezoekers, maar te blokkeren voor de crawl-spiders via de robots.txt file.
- Meta robots tag: Een betere SEO oplossing is aan de zoekmachines te zeggen dat ze een bepaalde webpage niet mogen crawlen en indexeren. Via de meta robots tag willen we dus URLs, die reeds in de index zitten, uit die index verwijderen. De code zegt dus aan zoekmachines “hallo daar, gelieve deze URL niet langer te indexeren”.
- Beheer van URL-parameters via Google Search Console: Je kan URL parameters managen via “URL-parameters” in (de oude sectie van) Google Search Console. Daar kan je aan Google zeggen hoe het met bepaalde parameters moet omgaan.
- Creëren van unieke content om duplicate content te voorkomen: De simpelste manier om dubbele content te voorkomen is dus om zelf onderscheidende content te schrijven. Ontdek je gedupliceerde teksten op je website, dan is de boodschap herschrijven.
Conclusie
Duplicate content kan een negatieve invloed hebben op de SEO-posities van een website en moet daarom actief worden aangepakt. Door gebruik te maken van de besproken diagnose-tools en oplossingen, kunnen website-eigenaren duplicate content effectief bestrijden en de kwaliteit van hun website verbeteren.