Dubbele inhoud is de meest voorkomende optimalisatiefout op een pagina

Dubbele inhoud is een van de grootste problemen van een lage ranking van websites in zoekmachines. Dit probleem wordt veroorzaakt door de aanwezigheid op de site van pagina's die geheel of gedeeltelijk identiek aan elkaar zijn. Voor zoekmachines vormt de aanwezigheid van ongewenste pagina's op een website uiteraard een ernstig probleem, omdat ze serverkracht moeten besteden om deze te verwerken. Het heeft geen zin dat zoekmachines fysieke bronnen verspillen door dergelijke nutteloze inhoud te indexeren. Daarom bestrijden ze dergelijke sites door er een filter op toe te passen of door ze in de ranking te verlagen, wat leidt tot lage posities voor gepromote zoekopdrachten.

Duplicaten en SEO

De aanwezigheid van dubbele pagina's op de site leidt tot het volgende:

  • Nuttig link-sap wordt verspild aan deze nutteloze pagina's.
  • Na de volgende update verplaatst de dubbele pagina de doelpagina en verliest deze zijn positie.
  • Dubbele inhoud vermindert het unieke karakter van alle pagina's waarop deze is geplaatst.
  • Omdat de zoekmachine dergelijke pagina's bestrijdt door ze uit de zoekresultaten te verwijderen, kan deze ook de pagina uitsluiten die wordt gepromoot.

Classificatie van duplicaten en oplossingen om ze te elimineren

Duplicaten kunnen volledig of gedeeltelijk zijn. Volledige duplicaten zijn wanneer de pagina's volledig identiek zijn. Er is dus sprake van gedeeltelijke duplicaten wanneer de pagina's niet volledig overeenkomen. Volledige duplicaten worden geëlimineerd met behulp van robots.txt en het instellen van 301-omleidingen. Gedeeltelijke duplicaten worden geëlimineerd door de nodige wijzigingen aan te brengen op de site.

Hier is een lijst met checklists die u moet doorlopen om het probleem van duplicaten te identificeren en op te lossen:

  • Zoek naar duplicaten van de hoofdpagina van de site. Er kunnen bijvoorbeeld de volgende startpagina-opties zijn: http://www.domen.com/, http://www.domen.com/index.php, http://www.domen.com, http:/ /domen com/, https://www.domen.com/, http://www.domen.com/index.html. Zoals u kunt zien, zijn er veel opties, maar de optimale optie is http://www.domen.com/. Om andere kopieën van de hoofdpagina te elimineren, wordt een 301-omleiding en afsluiting in robots.txt gebruikt (in het geval van structuren zoals https://www.domen.com/.
  • Controle van de fundamentele (gouden regel van SEO) - elke pagina mag slechts op één adres toegankelijk zijn. Het is onmogelijk dat de adressen als volgt variëren: http://www.domen.com/stranica1/stranica2/ en http://www.domen.com/stranica2/stranica1/.
  • Controleren op de aanwezigheid van variabelen in de URL. Ze mogen niet in het paginaadres voorkomen. Het genereren van URL's zoals: http://www.domen.ru/index.php?dir=4567&id=515 is bijvoorbeeld een fout. De juiste URL zou zijn: http://www.domen.ru/dir/4567/id/515.
  • Controleren op de aanwezigheid van sessie-ID's in URL's. URL's zoals http://www.domen.ru/dir/4567/id/515.php?PHPSESSID=3451 zijn bijvoorbeeld onaanvaardbaar. Dergelijke URL's bevatten een oneindig aantal exemplaren van elke pagina. Daarom is het noodzakelijk om alle sessie-ID's in robots.txt te sluiten.

Hallo vrienden! Dubbele inhoud op een website is een chronisch verschijnsel in de e-commerce. Het lijkt erop dat elk platform, hoe geoptimaliseerd het ook is, een vorm van repetitief materiaal creëert, waardoor de site geen topprestaties kan leveren.

Hoe dubbele inhoud op een website SEO doodt

Laten we eerst eens kijken wat dubbele inhoud is. Het is misschien niet precies wat u denkt.

In tegenstelling tot wat vaak wordt gedacht, staan ​​er geen sancties op dubbele inhoud. In 2008 schreef Google op hun blog: “Laten we alles voor eens en voor altijd op zijn plaats zetten, jongens. Er bestaat simpelweg niet zoiets als een boete voor dubbele inhoud.”

En toch is er een heel reëel, maar minder zichtbaar probleem met dit soort inhoud. Algoritmische verzwakking of prestatievermindering treedt op op alle soorten pagina's die repetitieve inhoud bevatten.

Dubbele inhoud op een site concurreert met zichzelf om dezelfde onderwerpzoekwoorden en verdeelt het linkgewicht over twee of meer pagina's.

Twee dingen duiden direct op het belang in zoekmachines:

  1. relevantie
  2. autoriteit

Als er meer dan één pagina is die zich op dezelfde dingen richt, worden ze steeds minder relevant voor zoekmachines, omdat het voor hen moeilijk is om te bepalen welke pagina ze moeten rangschikken. En omdat meerdere pagina's met dezelfde sleutels zijn verbonden, ondersteunen links die één pagina zouden kunnen ondersteunen, in plaats daarvan elk van die pagina's zwak, waardoor geen enkel voordeel voor hen ontstaat.

Verzwakking betekent in dit geval zwakkere signalen die door de site naar zoekmachines worden verzonden, wat van invloed is op het vermogen om te rangschikken.

Waarom zijn hier geen straffen voor?

In de wereld van Google worden sancties handmatig opgelegd door een echte persoon op de webkwaliteitsafdeling van het systeem wanneer een bepaalde pagina of site binnen de vastgestelde definitie van spam valt. Iemand moet de hulpbron fysiek sanctioneren als het echt een straf is. Verzwakking is algoritmisch van aard en moeilijker te detecteren omdat Google je er niet voor waarschuwt, zoals het geval is bij een handmatig ingestelde boete via Google Search Console.

Ongewenste effecten

Het probleem met het verwijderen van dubbele inhoud is dat het simpelweg verwijderen van pagina's een aantal ongewenste effecten kan hebben.

In sommige gevallen moeten uw klanten deze pagina's zien. Gesorteerde browserrasters, verlanglijstpagina's, afdrukbare pagina's, enz. kunnen technisch gezien dubbele inhoud zijn. Het verwijderen van deze pagina's kan schadelijk zijn voor uw klant en mogelijk ook voor uw inkomsten.

Linkautoriteit

Elke geïndexeerde URL heeft een bepaald gewicht. Het eenvoudigweg vernietigen van pagina's resulteert uiteindelijk in een verlies van linkautoriteit, en ironisch genoeg, als je probeert je SEO te helpen, doe je deze uiteindelijk pijn.

Het doel is om precies te bepalen wat u moet bereiken:

  1. Wilt u de pagina verwijderen voor zoekmachines, maar behouden voor kopers?
  2. Moet u de pagina verwijderen voor zowel kopers als zoekmachines?
  3. Is het belangrijker om een ​​pagina onmiddellijk te verwijderen (om juridische of andere redenen), ongeacht de SEO-impact ervan, of probeer je SEO te verbeteren door middel van geplande acties?

De volgende tabel helpt u bij het besluitvormingsproces.

7 manieren om dubbele inhoud te verwijderen

Als eerste op de lijst staat de 301-redirect, de ster van SEO. Gebruik waar mogelijk deze methode voor het verwijderen van dubbele inhoud, omdat dit de enige manier is om een ​​combinatie van bot- en client-omleiding te bereiken, een link door te geven naar de nieuwe URL en de oude te verwijderen. In tegenstelling tot sommige andere opties is een 301-omleiding een opdracht naar zoekmachines, en niet slechts een verzoek dat kan worden genegeerd.

Als uw ontwikkelingsteam deze methode vermijdt, of als kopers een pagina moeten blijven zien die zoekmachines als dubbele inhoud beschouwen, probeer dan Canonical-tags als vervanging. Ze hebben nog steeds ondersteuning van ontwikkelaars nodig, maar er zullen minder tests nodig zijn tijdens de implementatie en minder gebruik van serverbronnen om ze in leven te houden. Houd er echter rekening mee dat Google canonieke tags kan negeren als het denkt dat u een fout hebt gemaakt of als het simpelweg het gevoel heeft dat het niet nodig is om ze om een ​​of andere algoritmische reden te gehoorzamen.

Derde op de lijst is de 302-omleiding, hoewel deze alleen op de lijst staat omdat deze verband houdt met de almachtige 301-omleiding. Volgens Google-ingenieur John Mueller leiden 302-omleidingen de autoriteit van de link om, maar in 99% van de gevallen is daar geen reden voor. om die theorie te testen, omdat 301-omleidingen meer opleveren voor dezelfde inspanning. Een reden om een ​​302-omleiding te gebruiken kan een situatie zijn waarin een tijdelijke omleiding nodig is en Google de pagina niet hoeft te de-indexeren omdat deze binnenkort zal terugkeren.

Verwijderde inhoud is schadelijk

De overige vier methoden de-indexeren alleen de inhoud. Ze leiden de koper niet door en dragen de linkautoriteit niet over naar een andere pagina. Gebruik ze dus als ze de enige haalbare optie zijn, aangezien het doden van pagina's zonder er vanaf te leiden linkbronnen verspilt.

Linkautoriteit– het meest waardevolle en moeilijk te vinden product bij natuurlijke zoekopdrachten. U kunt geweldige inhoud maken, u kunt de uwe op uw site optimaliseren en autoriteit plaatsen waar dat nodig is. Maar het ethisch vergroten van uw linkgewicht, met een werkelijk diverse en gerenommeerde verzameling externe sites, vereist een zeldzame combinatie van geluk, digitaal bereik, persrelaties, offline marketing, enz. Er zijn maar weinig sites die hierin zijn geslaagd.

Als u een pagina moet verwijderen, beslis dan of u deze puur om SEO-redenen (bijvoorbeeld dubbele inhoud) of om juridische redenen (bijvoorbeeld dat niemand deze ooit nog mag zien) moet verwijderen. Als u het alleen tijdelijk wilt uitsluiten van Google, kunt u dit snel en eenvoudig doen in Google Search Console met behulp van de tool URL's verwijderen (Google Index > URL's verwijderen). Voor klanten is de pagina nog steeds zichtbaar tijdens het browsen, maar Google verwijdert deze onmiddellijk uit de indexering.

Wees voorzichtig met dit hulpmiddel. Als het verkeerd wordt gebruikt, kan het uw hele site de-indexeren.
De enige manier om een ​​pagina uit te sluiten van toegang door zowel mensen als bots is door deze van de servers te verwijderen, waardoor de URL een 404 Bestand niet gevonden-fout genereert of, met behulp van een 301-omleiding, omleidt naar een nieuwe URL.

Metatags geen index voor robots en team robots.txt disallow staat om een ​​aantal redenen als laatste op deze lijst:

Dat was alles voor vandaag, veel succes allemaal en tot ziens!

Veel website-eigenaren richten zich vooral op het garanderen dat de inhoud uniek is in vergelijking met andere bronnen. U mag echter de aanwezigheid van dubbele inhoud op dezelfde site niet uit het oog verliezen. Dit heeft ook een sterke impact op de rankings.

Wat is dubbele inhoud

Herhaalde of dubbele inhoud zijn omvangrijke tekstblokken die binnen de site op verschillende pagina's samenvallen. Dit gebeurt niet noodzakelijkerwijs met kwade bedoelingen; vaker gebeurt dit om technische redenen, die hieronder in detail worden besproken.

Het gevaar is dat dubbele inhoud vaak niet met het blote oog te zien is, maar dat de zoekmachine het perfect ziet en dienovereenkomstig reageert.

Waar komt dubbele inhoud vandaan en waar komt deze het meest voor?

De belangrijkste redenen voor dit fenomeen:

  • Het wijzigen van de sitestructuur;
  • Opzettelijk gebruik voor een specifiek doel (bijvoorbeeld gedrukte versies);
  • Foutieve handelingen van programmeurs en webmasters;
  • Problemen met CMS.

Er doet zich bijvoorbeeld een veel voorkomende situatie voor: replytocom (antwoord op een opmerking) in WordPress genereert automatisch nieuwe pagina's met verschillende URL's, maar geen inhoud.

Doorgaans wordt dubbele inhoud opgemerkt bij het maken van artikelaankondigingen op andere pagina's van de site, bij het plaatsen van recensies en bij identieke beschrijvingen van producten, categorieën en rubrieken.

Waarom dubbele inhoud slecht is

Herhaalde inhoud heeft een analogie uit de economie: rekening-courantkrediet. Hier wordt het zogenaamde crawlbudget aan besteed. Dit is het aantal bronpagina's dat een zoekmachine in een bepaalde periode kan crawlen. De hulpbron is zeer waardevol en het is beter om deze uit te geven aan echt belangrijke en relevante pagina's dan aan tientallen duplicaten van identieke tekst.

Dubbele inhoud verslechtert dus de zoekmachineoptimalisatie. Bovendien gaan natuurlijke links verloren en wordt linkjuice verkeerd verdeeld binnen de site. En ook echt relevante pagina’s worden vervangen.

Dubbele inhoud op een website vinden (handmatig, programma's en services)

Er zijn speciale programma's voor hulpbronnenanalyse. Hiervan benadrukken gebruikers vooral Netpeak Spider. Het zoekt naar volledige kopieën van pagina's, overeenkomsten op titel of beschrijving, of koppen. Een andere optie is Screaming Frog, die vergelijkbare functionaliteit heeft en in wezen alleen qua interface verschilt. Er is ook de Xenu's Link Sleuth-applicatie, die op een vergelijkbare manier werkt als een zoekmachine en in staat is om vrij efficiënt een site te doorzoeken op duplicaten.

Helaas zijn er geen tools die alle tekstduplicaten volledig kunnen volgen. Daarom zult u hoogstwaarschijnlijk een handmatige controle moeten uitvoeren. Hier is een lijst met mogelijke factoren die het probleem hebben veroorzaakt:


We hebben ontdekt hoe we dubbele inhoud kunnen vinden. En de beste helpers in de strijd ertegen zijn 301-omleidingen, canonieke URL-tags, instructies in robots.txt en de parameters Nofollow en Noindex als onderdeel van de ‘robots’-metatag.

Een manier om snel te controleren of er dubbele inhoud op een site staat, is een geavanceerde zoekopdracht in Yandex of Google. U moet het siteadres invoeren en een stukje tekst van de pagina die u wilt controleren. U kunt ook tal van programma's gebruiken om de uniciteit van tekst te controleren:

  • Tekst.Ru;
  • eTXT Anti-plagiaat;
  • Advego Plagiatus;
  • Inhoud-bekijken.

Hoe om te gaan met dubbele inhoud en deze op te schonen

Hetzelfde Google-helpsysteem geeft een aantal tips om dit probleem te voorkomen.

  • 301. Wanneer u structurele wijzigingen aanbrengt in een bron, moet u een 301-omleiding opgeven in het htaccess-bestand.
  • Gebruik één referentiestandaard.
  • Regiospecifieke inhoud kan beter op topniveaudomeinen worden geplaatst dan op subdomeinen of submappen.
  • Stel uw gewenste indexeringsmethode in met Search Console.
  • Gebruik geen sjablonen. In plaats van op elke pagina copyrighttekst te plaatsen, kun je beter een link maken die naar een aparte pagina met deze tekst leidt.
  • Zorg er bij het ontwikkelen van nieuwe pagina's voor dat ze niet meer worden geïndexeerd totdat ze volledig gereed zijn.
  • Begrijp precies hoe uw inhoud wordt weergegeven. Er kunnen verschillen zijn in de weergave op blogs en forums.
  • Als er veel vergelijkbare artikelen op de site staan, is het beter om de inhoud ervan tot één geheel te combineren of ze allemaal te uniek maken.

Zoekmachines leggen geen sancties op tegen sites die om technische redenen dubbele inhoud hebben (in tegenstelling tot sites die dit opzettelijk doen om zoekresultaten te manipuleren of bezoekers te misleiden).

Nadat de duplicaten zijn verwijderd, hoeft u ze alleen nog maar uit de zoekresultaten te verwijderen. Yandex doet dit zelfstandig, op voorwaarde dat het robots.txt-bestand correct is geconfigureerd. Wat Google betreft: u zult de regels handmatig moeten instellen in Webmaster, op het tabblad “URL-parameters”.

Conclusie

Het tegengaan van dubbele inhoud op een website is een belangrijk aspect van de activiteiten van de eigenaar van elke website. Er zijn nogal wat redenen voor het voorkomen ervan, en net zoveel manieren om het te elimineren.

De hoofdregel blijft echter: plaats uitsluitend originele inhoud, ongeacht het type site. Ook al is het een grote winkelketen met duizenden pagina's.

ONTVANG AANKONDIGINGEN VAN SOORTGELIJKE BERICHTEN IN UW E-MAIL

Schrijf je in en ontvang maximaal één keer per week iets interessants uit de wereld van internetmarketing, SEO, websitepromotie, webwinkels, geld verdienen met websites.

Dubbele inhoud, of eenvoudigweg duplicaten, zijn pagina's op uw site die volledig (duidelijke duplicaten) of gedeeltelijk (vage duplicaten) hetzelfde zijn, maar elk een andere URL hebben. Eén pagina kan een of meerdere duplicaten bevatten.

Hoe verschijnt dubbele inhoud op een website?

Voor zowel duidelijke als onduidelijke opnames zijn er verschillende redenen waarom ze voorkomen. Duidelijke duplicaten kunnen om de volgende redenen voorkomen:

  1. Ze verschijnen vanwege het CMS van de site. Als u bijvoorbeeld antwoordtocom in WordPress gebruikt, worden bij het toevoegen van nieuwe opmerkingen automatisch nieuwe pagina's gemaakt die alleen qua URL verschillen.
  2. Als gevolg van webmasterfouten.
  3. Vanwege veranderingen in de structuur van de site. Bijvoorbeeld bij het implementeren van een bijgewerkte sjabloon met nieuwe URL's.
  4. Gemaakt door de site-eigenaar voor bepaalde functies. Bijvoorbeeld pagina's met afdrukbare versies van de tekst.

Er kunnen om de volgende redenen onduidelijke duplicaten op uw site verschijnen:

Waarom is dubbele inhoud schadelijk voor een website?
  1. Heeft een negatieve invloed op de promotie in de zoekresultaten. Zoekrobots hebben een negatieve houding ten opzichte van dubbele inhoud en kunnen hun positie in de zoekresultaten verlagen vanwege het gebrek aan uniekheid, en dus bruikbaarheid voor de klant. Het heeft geen zin om hetzelfde op verschillende pagina's van de site te lezen.
  2. Kan echt relevante pagina's vervangen. De robot kan ervoor kiezen een dubbele pagina terug te sturen als hij de inhoud ervan relevanter vindt voor het verzoek. Tegelijkertijd heeft het duplicaat in de regel lagere indicatoren voor gedragsfactoren en/of linkmassa dan de pagina die u doelbewust promoot. Dit betekent dat de dubbelganger op slechtere posities wordt getoond.
  3. Leidt tot verlies van natuurlijke verbindingen. Wanneer de gebruiker een link maakt niet naar het prototype, maar naar een duplicaat.
  4. Bevordert een onjuiste verdeling van het interne linkgewicht. Duplicaten trekken een deel van het gewicht van de gepromote pagina's weg, wat ook de promotie in zoekmachines belemmert.
Hoe kunt u controleren of u duplicaten heeft of niet?

Er zijn verschillende manieren om erachter te komen of sitepagina's duplicaten hebben of niet.


Heeft u duplicaten gevonden? We lezen hoe je ze kunt neutraliseren:
  1. 301e omleiding Deze methode wordt als de meest betrouwbare beschouwd bij het verwijderen van onnodige duplicaten op uw website. De essentie van de methode is om de zoekrobot van de dubbele pagina naar de hoofdpagina om te leiden. De robot slaat dus de dubbel over en werkt alleen met de vereiste pagina van de site. Na verloop van tijd, na het instellen van de 301e omleiding, blijven dubbele pagina’s aan elkaar plakken en vallen ze uit de index.
  2. Label . Hier geven we aan de zoekmachine aan welke pagina onze hoofdpagina is, bedoeld voor indexering. Om dit te doen, moet u bij elke opname een speciale code voor de zoekrobot invoeren , die het adres van de hoofdpagina zal bevatten. Om dergelijk werk niet handmatig te hoeven doen, zijn er speciale plug-ins.
  3. Niet toestaan ​​in robots.txt. Het robots.txt-bestand is een soort instructie voor de zoekrobot, die aangeeft welke pagina's geïndexeerd moeten worden en welke niet. Om indexering te verbieden en duplicaten tegen te gaan, wordt de Disallow-richtlijn gebruikt. Hier is het, net als bij het instellen van een 301-omleiding, belangrijk om het verbod correct in te stellen.
Hoe duplicaten uit de zoekmachine-index te verwijderen?

Wat Yandex betreft, het verwijdert onafhankelijk duplicaten uit de index als het robots.txt-bestand correct is geconfigureerd. Maar voor Google moet u regels instellen op het tabblad ‘URL-parameters’ via Google Webmaster.

Als u problemen ondervindt bij het controleren en verwijderen van dubbele inhoud, kunt u altijd contact opnemen met onze specialisten. We zullen alle verdachte elementen vinden, een 301-omleiding instellen, robots.txt, rel="canonical", instellingen maken in Google. Over het algemeen zullen wij al het werk uitvoeren om ervoor te zorgen dat uw website effectief werkt.