Menu Luk

Google Penguin er blevet en del af kernealgoritmen

Google har via deres blog annonceret fredag d. 23. september 2016, var dagen hvor Google Penguin 4 blev en del af kerne algoritmen i søgemaskinens maskinhus.

Google bruger i dag over 200 forskellige parametre til måling og vurdering af et websites værdi. På baggrund af disse beregninger vægtes placeringen i søgemaskinens indeks (SERPS). Signalerne der anvendes er bla. nøgleord i forhold til sideindhold, PageRank som vurderes på indgående links til websitet.

Det er på linksiden Google Penguin algoritmen sætter ind, og ser på om der er tale om naturlige links, eller det ligner en konstrueret sammensætning af ligegyldige links til websitet med ankertekst spamming. Linkspamming kan være på på OnSite-delen, hvor der er tale om overdrevet brug af KEYWORD i interne links og købte eksterne links med tilsvarende overforbrug af KEYWORD i ankertekster etc.

Historien bag Google Penguin

Google Penguin så dagens lys første gang i 2012, hvor mange webmastere og SEO folk vågnede op til en ny virkelighed, hvor websider der tidligere rankede rigtigt godt på Google nu var forsvundet som dug for solen i SERPS.

De første generationer af Google Penguin var egentlige kørsler i modsætning til en on the fly algoritme, der løbende tilpasser sig i forhold til sidernes udvikling, hvilket betød at Google indekset blev gennemgået med lange perioder i mellem for linkspam med Google Penguin algoritmen. Derefter skete der ikke mere før den næste opdatering og kørsel af algoritmen. Dette betød at var et site først dømt ude, så var der tale om en længere tidsfaktor for at få sitet ind igen. Det krævede typisk en del oprydning i linkprofilen og de forskellige ankertekster – og i mange tilfælde en kontakt med Google om reindeksering, hvor svaret typisk var, at der var tale om en automatisk udelukkelse, og det eneste var at få flernet de dårlige links. Værktøjer som f.eks. Link Research Tools http://www.linkresearchtools.com så dagens lys, det kunne anvendes til at spotte problemfelter i forbindelse med en dårlig linkprofil. En af udfordringerne ved brug af dette værktøj er det samme som ved brug af andre webværktøjer at sætte sin lid 100 % til resultaterne af det programmet viser. En af udfordringerne, er at der sammen med de dårlige links og vises falske positive, dvs. websteder med høj troværdighed, hvor signaler på for mange indgående links etc. er sidestillet med spamsider i mindre eller større grad. Det krævede en manuel gennemgang af samtlige links, inden der kunne udarbejdes en disavow fil og uploade den til Google.

Google Penguin 4

Penguin er nu blevet en realtids algoritme, hvilket betyder den opdateres jævnligt. Det betyder i praksis at tiden hvor et website er ude på specifikke termer bliver mindre, når sitet og profilen rettes, så vil der gå mindre tid før sitet er tilbage igen. Det udelukker ikke brugen af avancerede værktøjer til identificering af problemfelter ved dårlige ankertekster og en dårlig linkprofil, men giver mulighed for hurtigt at løse problemerne for kunderne.

Ifølge Google, så vil de de-ranke sider ved at justere ranking på baggrund af spamsignaler, i stedet for at påvirke ranking af hele websitet.

Google blog

 

Posted in Google