Duplicate content
Duplicate content er stadig et stort problem i forbindelse med indeksering af websites i søgemaskinerne.
Ens tekstmæssigt indhold, som forefindes på flere urlér på et website. (onsite Duplicate content ) og duplicate content på tværs af domæner.
Når der forefindes duplikeret indhold på et website, så skyldes det den måde et CMS system genererer urlér på. Det kan give mulighed for samme tekstindhold på flere urlér, som derved opfattes af søgemaskinerne som to sider med samme indhold.
Problemet opstår tit i forbindelse med dårlige SEO moduler, der omskriver den dynamisk genererede url-streng til et filnavn som f.eks. tuborg.html i stedet for CMS systemets grundlæggendende url-struktur index.php?option=com_content&view=article&id=125&Itemid=121&lang=da
Denne omskrivning er hensigtsmæssigt over for søgemaskinerne, men i mange tilfælde kan siden også tilgås via den dynamiske adresse. Herved skabes duplicate content, da der nu er to sider med samme indhold. OG DET ER ET PROBLEM.
På blogs og fora opstår der ligeledes duplicate content mange steder. Det skyldes indlægget tit placeres i fuld længde på forsiden, hvor der linkes til artiklens side, og samtidig figurerer samme indlæg i arkivet, og i en emnegruppe. Her bør man selv tage affære, og sætte bloggen op, således der kun er en version med samme tekstindhold, der indekseres af søgemaskinernes crawlere.
Printversioner kan være problematiske
Printvenlige versioner af en websides indhold er ligeledes et problem, hvis samme side vises i to versioner. Brug noindex på printsiden, det er den bedste løsning.
WWW med eller uden
Ligeledes er det vigtigt at vælge, om man vil køre sit website i en www-version eller uden www. Hvis der ikke holdes en fast linje her, så er der risiko for at der indekseres sider med og uden www i en blanding, hvor nogle sider er med www og andre uden. Dette på grund af duplicate content (to versioner af samme side).
Når der er flere sider med samme indhold, så vil søgemaskinerne prøve at finde ud af hvilken version, der er den vigtigste, men det er ikke altid, de vælger den bedste løsning for det enkelte websted.
Det er sjældent, det er forsøg på bevist snyd fra websites ejer, men snarere et spørgsmål om uvidenhed kombineret med dårlige CMS løsninger, der har svært ved at forhindre duplicate content, som tit skyldes dårlige SEO moduler og url-rewrite systemer.
Dublicate content på tværs af domæner
Her opstår problemet med kopieret indhold når f.eks. et blogindlæg gengives på andres website i fuld version. Dette bevirker der er samme indhold flere steder, derved skal søgemaskinerne nu vælge den mest troværdige version. Dette giver websites med stor trust fordelen. Så her er løsningen at bede om at få linket tilbage til den originale tekst og domæne, på de sider, der kopierer teksten. Derfor vær forsigtig når du syndikerer, og udsender dit indhold til andre websteder.
Løsningsmodeller til duplicate content
Der findes flere metoder til at inddæmme problemerne med duplicate content.
Der kan anvendes et rel=”canonical” tags, her beskrives hvilken version, der er den ”ægte” – og som webstedet ejer helst vil have indekseret.
Der skal knyttes følgende kommentar til brug af dette tags, der er tvivl i blandt SEO virksomheder om værdien af dette tags i forhold til søgemaskinernes valg af den mest hensigtsmæssige webside.
Dynamiske websider kan udelukkes ved brug af robots.txt eller på f.eks. en Apache server ved brug af .htacces filen, her udarbejdes en kodning med kommandoer, der forhindrer dobbeltindeksering af websider, og www og uden www versioner.
Google webmaster værktøjer giver også mulighed for at arbejde med parameterstyring, således at Google ikke dobbeltindekserer sider, men det løser kun problemet for Google. Andre søgemaskiner indekserer også websiderne og her vil der også opstå duplicate content, hvis det ikke fikses på selve webstedet.
Du er velkommen til at kontakte os, hvis du er ramt af dobbeltindeksering og deraf dårlige placeringer på Google. Vi kan hurtigt hjælpe dig op af dyndet, så dit website kommer på ret køl igen.