Duplicate content – eller duplikeret indhold – er et meget stort problem i arbejdet med SEO. Og desværre et voksende problem i takt med at hjemmesider bliver stadigt mere komplicerede. Desværre er det et problem, som kun de færreste udviklere, webbureauer og CMS huse tager alvorligt. Men du skal tage det alvorligt! Jeg bliver ofte spurgt, om man skal være bange for duplicate content, og mit svar er altid: Du skal ikke være bange – du skal være meget bange!

Hvad er duplicate content?

Duplicate content er samme indhold på mere end én URL – altså på mere end én webadresse. Og med samme indhold mener jeg samme tekst. Billeder og anden grafik er ligegyldigt i den sammenhæng.

Lad os sige, at du har en tekst på 200 ord på adressen xxxx.dk/side1 og på xxxx.dk/side14. Det kan godt være, du har forskellige billeder på de to sider, men dem kan søgemaskinerne ikke læse – så i deres verden er siderne ens.

Det er et stort problem for dem, og om lidt forklarer jeg hvorfor. Først skal jeg lige slå fast, at det også er duplicate content, hvis du har to hjemmesideadresser med samme indhold.

Et eksempel: Du har adresserne billige-kaffemaskiner.dk og billige-kaffemaskiner.com, og hvis begge adresser giver samme hjemmeside direkte, er du i svære problemer. Jeg kommer tilbage med løsningerne – bare rolig. Men først vil jeg fortælle, hvor meget det betyder.

For et års tid siden fik jeg en henvendelse fra en stor organisation, der havde nogle problemer med deres hjemmeside. De havde fantastisk gode placeringer på deres engelsksprogede hjemmeside med en .com adresse, men deres danske version på en .dk adresse kørte bare slet ikke i søgemaskinerne. De havde haft flere ”eksperter” på sagen, men lige lidt hjalp det.

Vi identificerede et duplicate content problem, og det tog deres webbureau en time at løse det. En uge senere rankede de nr. 1 i Google på deres primære søgeord med deres danske hjemmeside – og ugen før lå de på side 42 med samme søgning. Så meget kan et duplicate content problem betyde!

Hvis du kæmper mod ”uforklarlige kræfter” i forhold til at blive synlig i søgemaskinerne, kan det sagtens være et duplicate content problem, du kæmper mod. Og er det tilfældet, skal du have det løst. At kæmpe om gode placeringer med en hjemmeside, der lider under duplicate content, svarer til at løbe en maraton med en brækket fod og 80 kilo på ryggen. Det dur altså ikke.

Hvorfor er duplicate content et problem?

Forestil dig, at du skal til Thailand for første gang i dit liv. Du vil gerne vide en masse om landet, inden du tager af sted, og derfor går du på biblioteket for at blive klogere.

Du finder en bibliotekar, og hende beder du om 10 forskellige bøger om Thailand, så du rigtig kan undersøge landet, kulturen og alt det der til bunds. Hun vender tilbage hurtigt med de ønskede 10 bøger, og de er alle forskellige i størrelse og omslag. Således belæsset med lekture drager du hjem og lægger alle bøgerne frem på dit spisebord.

Forestil dig nu, at du åbner alle 10 bøger og opdager, at trods deres forskellige ydre er alle 10 bøger helt ens. Der står simpelthen det samme i alle bøgerne side for side.

Du vil helt sikkert føle dig lidt snydt, og vi kan nok være enige om, at det ikke er en god bibliotekar, du har haft fat i der.

Google og de andre søgemaskiner er jo også bibliotekarer, der systematiserer og rangordner. Det er bare hjemmesider i stedet for bøger. Og søgemaskinerne ved godt, at du bliver sur og vælger en anden søgemaskine næste gang, hvis de præsenterer dig for 10 forskellige hjemmesider på side 1 med samme indhold. Eller bare for 3-4 forskellige sider med samme indhold.

Søgemaskinerne kan ikke leve med sure brugere, så derfor viser de ikke flere sider med samme indhold på de første 30-40 sider i søgeresultaterne. Det er jo sund fornuft.

Hvordan sorterer søgemaskiner duplicate content?

Lad os tage udgangspunkt i Googles måde at håndtere duplicate content på. Hvis Google finder, at der er f.eks. tre forskellige adresser på din hjemmeside med samme indhold, er de nødt til at undlade at vise de to af dem i deres søgemaskine. I hvert fald på de første mange sider.

Google vælger nu én af siderne og beslutter, at det er den, de vil vise. Ofte vælger de den side, der har flest indgående links – men ikke altid. Jeg prøver at signalere til dig, at der kan være et vist element af tilfældigheder i deres valg. Og som nævnt mange gange nu: Vi skal ikke lade Google bestemme, hvad vi selv kan afgøre.

Problemet i at lade Google vælge er, at hvis Google vælger en anden version end den, du får links til fra både din egen og andre hjemmesider – så er de links spildte. Og hvad nu, hvis Google vælger en adresse, som du senere nedlægger? Så får folk et ”Siden kan ikke findes”. Det sælger du ikke meget med.

Der er ingen vej uden om: Du skal undgå duplicate content under enhver form!

Vil du læse mere om søgemaskineoptimering eller duplicate content, er du altid velkommen på min blog. Og husk nu, at du stadig kan nå at købe den mest solgte SEO-bog i Danmark til en særlig julepris til og med 24. december 2009.

Rosenstand out!

Flere artikler af SEO med Rosenstand

Tags:, , ,

Email denne artikel Email denne artikel Print denne artikel Print denne artikel