SEO og den perfekte søgemaskineoptimering!
Det er mere end titler, overskrifter og billig linkbuilding
Mange tror fejlagtigt at søgemaskineoptimering udelukkende består af optimerede titler, overskrifter og en gang sammensat SEO-tekst for at opnå en god placering i Googles søgeresultater. Dette kombineret med en gang billig linkbuilding.
Men, men det er ikke nok, hvis der ønskes kvalitative løsninger, der også virker fremadrettet!
Når der skal udføres en professionel søgemaskineoptimering, så er der væsentligt flere parametre, der skal tages med i ligningen for at kabalen går op i en højere enhed.
Følgende parametre er væsentlige for OnSite søgemaskineoptimeringen af et website.
- Søgeordsanalyse med fokus på salgsområde og størst mulig relevant webtrafik ud fra websites indhold og sidesammensætning
- Gennemgang af Google Analytics data
- Data mining for at finde gamle url adresser ( 404 fejl ), der stadig giver trafik til sitet, men som ikke er redirectet korrekt med en serverkode 301, men i stedet lander på en 404 side
- Gennemgang af redirect og udarbejdelse af redirect med korrekte serverkoder efter behov
- Serverens opsætning
- Gennemgang af websitets template kodning og optimering af denne
- JavaScript ? Er der anvendt Javascript i forbindelse med udarbejdelsen af websitet
- CMS og shop opsætning? Hvad er teknisk muligt i det pågældende system (WordPress, Drupal, Joomla, Magento, VirtueMart, Shopify mf.) for at generere en perfekt læsbar kode, som søgemaskinerne kan forstå når sitet crawles
- BigMenu opsætning, så udvanding af intern linkdistribution og linkjuice undgås
- Opsætning af sider med titler, overskrifter og bodytekst ud fra produktet eller ydelsens art og sammensat med en læsbar url adresse, der giver mening i forhold til sideindhold
- Test af canonical eller noindex på duplikerede sider –” sider der ligner hinanden meget eller varekort med varianter af forskellige farvevalg/størrelser og enslydende tekster af forskellig slags”
- Mobilversion test – Google mobile friendly
- Speed test i forhold til Google Pagespeed insights
Hvis der er tilknyttet et SEO modul, så skal de forskellige parametre sættes korrekt op i forhold til de forskellige typer sider på websitet. Der er typisk en del førstegangs-opsætninger, der er vigtige at få sat fuldstændigt korrekt op fra start. F.eks. er det vigtigt at få sat indholdstyper korrekt op, mediefiler bør som udgangspunkt viderestilles og ikke have en ekstra url adresse, der indekseres i Googles indeks.
Kategorier skal opsættes ud fra websites sammensætning, tags og arkiver skal udelukkes helt fra indeksering. Der bør ligeledes tages stilling om man ønsker forfatterarkiver.
JavaScript kodning i template
Er der tale om brug af teknologier, som søgemaskiner ikke er gode til at indeksere – f.eks. JavaScript, hvor der tit opstår problemer når webcrawleren (Googlebot) skal forstå det indholdsmæssige indhold på siden – Dette skyldes rendering af websiden sker med en forældet Google Chrome browser version 41. Andre søgemaskiner er mere eller mindre JavaScript blinde og kan ikke læse og fortolke tekster i scripts.
Dette alene betyder at mange gode og stærke websites ikke ranker på Google pga. af søgemaskinen måde at fortolke siden indhold på.
F.eks.
Client-side og server-side rendering i forbindelse med indeksering af en side.
Der er to former for rendering
• Rendering på serveren inden data leveres til browseren – Googlebot får det fulde overblik ved at downloade siden og tilhørende CSS filer.
• JavaScript, køres generelt på klientmaskinen (klientsiden), hvilket betyder at Googlebot henter indholdet på siden, og så skaber JavaScript DOM (Document Object Model), der skal bruges til gengivne indhold efter det er renderet.. Læs mere om Google specifikationerne.: https://developers.google.com/search/docs/guides/rendering
Til den sidstnævnte opgave anvender Google pt. Chrome version 41 hvor der til sammenligning anvendes version 71 til den almindelige browser. Så alene her kan der være et problem med den måde de forskellige versioner tolker et givent website med JavaScript teknologi.
Ved brug af JavaScript på websitet skal overvejes om der evt. skal foretages dynamisk rendering af websitet, således Google får sitet præsenteret på samme måde som i almindelig HTML.
F.eks. Magento og andre shopsystemer
Er der nok åbne tråde til databasen? Hvis ikke det er tilfældet, så opstår der tit fejl ved hurtige scanninger af et website med en Googlebot testopsætning( Google vil i sådanne tilfælde støde på samme problematik). Der kan opstå periodiske 503 serverfejl, hvilket betyder at siderne ikke kortvarigt er tilgængelige, hvilket betyder at sådanne sider ikke crawles korrekt og opnår de bedste indekserings muligheder da Google får den samme serverkode.
Fejlen heri ligger typisk i for få åbne tråde til databasen eller moduler og plugin, der lider af fejlkodning og skaber 503 fejlen.
Magento foreskriver f.eks. at der bør være et sted imellem 150 – 200 parallelle tråde åbne samtidig for bedste performance.
Danske webhoteller ligger typisk med 20 – 30 parallelle tråde åbne til databasen.
I praksis er det ok, hvis alt andet kører som det skal – erfaringsmæssigt er det typisk dårligt kodede plugin, der skaber problemer.
Når du skal rigtigt i gang med søgemaskineoptimering på dit website, så er det en god ide at tage alle ovennævnte parametre med, så du opnår de bedste resultater på søgemaskinerne.