Link-afvisning – nyt værktøj fra Google
Google Penguin opdateringen, som startede d 25.04.2012 skabte et ramaskrig blandt SEO-folk og webmastere over det meste af verden. Sider droppede i Googles index, sider der tidligere lå blandt de øverste i Google resultatlister var helt væk, det samme var besøgsraten, som fra den ene dag til den anden droppede på søgeord, som det enkelte websted havde nydt godt af i rigtigt mange år.
Hvad var forklaringen? Google var med Google Penguin opdateringen slået ind på et parallelspor i forhold til de tidligere opdateringer, såsom Google Panda mv. Jagten var nu gået ind på unaturlige linkstrukturer og links, som havde til formål at booste et websites popularitet i Googles søgeresultater.
Tidligere var det normalt at link med ankertekster på søgeord havde en procentuel del på et sted imellem 40 og 50% af ankertekster på det søgeord, der skulle være optimering på. Nu var denne procent sat ned til ca. 2-3 % Problemet var imidlertid, at der jo stadig var de tidligere links derude, der pegede ind på domænet og derved straffede websitet, ydermere var der det forhold, at Google ikke opdaterede Google Penguin kontinuerligt. I modsætning til de andre dynamiske algoritmer foretager Penguin en kørsel med ikke tidsfastsatte mellemrum, hvilket det gør det sværere for SEO folket og webmastere at teste deres renoveringsarbejde af de overoptimerede websites.
Et andet fænomen opstod samtidig med Google Peguin opdateringen, nemlig begrebet negativ SEO. Begrebet er dog ikke nyt, det har også tidligere været muligt at påvirke et site negativt med ond SEO, hvis tankerne gik i denne retning, men nu opstod der direkte frygt for at andre kunne spamme et website ud af Googles resultatlister. Google afviste det kunne lade sig gøre, SEOMoz testede endvidere om deres website kunne spammes ned, hvilket det ikke blev. Eksemplet er dog ikke retningsgivende, da det i forvejen har mange andre parametre, der giver det et forholdsmæssigt stort trust i forhold til Google.
Matt Cutts fra Google antydede kort efter introduktionen af Google Penguin, at der på et tidspunkt ville blive udviklet et linkværktøj til webmasterne, således de via Google Webmaster Tool vil have mulighed for at fravælge link, som Google skal undlade at tage med i sin vurdering af siden, dette værktøj er tænkt som sikring imod negativ seo, hvor konkurrenter spammer webstedet til med spamlinks fra nær og fjern.
Efter lang tids venten sker der tilsyneladende noget på denne front nu! Matt Cutts bekræfter nu af værktøjet er klar, således brugerne kan anvende det i vedligeholdelsen af deres website.
Hvad kan så dette linkværktøj?
Værktøjet fortæller brugerne, “Hvis du mener, at din websteds placering bliver skadet af links med lav kvalitet, her tænkes på links, som du ikke selv har placeret og har kendskab til. Det vil du nu kunne anmode Google om ikke at tage hensyn til, når de vurderer dit websted.”
Som med mange andre af Google hjælpeværktøjer, så er det et forslag til Google, men det er ikke garanteret de vil imødekomme dit ønske.
Google gør ifølge Matt Cutts alt hvad de kan for at forhindre at andre kan skade et websites Ranking ved brug af negativ SEO, han mener det næsten er umuligt, men vi er ikke helt så overbeviste, dette skyldes at vi har set flere tilfælde hvor websites er spammet ned, og det efterfølgende har været negativt for det websted det er gået ud over.
Unaturlige link og linkprofiler kan være svære at fjerne!
Google har i et stykke tid pr. mail fortalt website ejere, der havde en relativ stor mængde links af unaturlig størrelse, at de bør gennemgå disse links og få dem fjernet, det kan muligvis også lade sig gøre, hvis det er links virksomheden selv har anskaffet sig, men det kan være en kamp op ad bakke at få fjernet tusindevis af links, som de ikke har kendskab til. Det er klart, at det vil være den ultimativt bedste løsning af få fjernet disse spamlinks, det vil hjælpe på det generelle billede i forhold til alle søgemaskiner, og ikke kun isoleret til Google alene.
Matt Cutts fortæller på denne video om hvorledes værktøjet anvendes i praksis i forbindelse med de links, som man ikke mener, virksomheden har kendskab til.
Links er et af de mest kendte signaler, som Google anvender til at sortere søgeresultaterne.
Når der ses på sammenhængen mellem siderne, kan søgemaskinen få en fornemmelse af, hvilke der er hæderlige og vigtige, og derfor mere tilbøjelige til at være relevante for brugerne.
Det bliver fremover interessant at se, hvordan Google behandler de links webmastere fortæller de skal ignorere. Udelukkes disse links? Samles de op centralt og anvendes som en del af en ny algoritme, der kan udelukke disse linksider totalt? Hvis de vælger at samle dem op centralt, det mener vi de vil gøre, så kunne konsekvensen være, at hvis der er tilstrækkeligt mange websiteejere, der udelukker samme websted, så vil Google kunne udelukke sider fra dette eller hele domænet på baggrund af de indrapporteringer, der er foretaget fra webmastere og SEO folket.
Super artikel! Det er et interessant træk af google og jeg er mest af alt bekymret for, hvordan det kan misbruges. Når google for alvor begynder at få data ind om “dårlige links” – så kommer der til at ske store ting og sager i SERP.
Så mine 5 cent: Brug det her værktøj meget meget varsomt!
@ Brug det her værktøj meget meget varsomt!
Enig!
Google vil nok bruge de data som forskellige webmastere sender ind som en del af en algoritme, der ser på den såkaldte kvalitet af linksteder. Hvis der så er mange, som mener de er berørt af et enkelt websted, så kan Google bruge disse data til at fjerne værdien på en enkelt side eller hele domænet.
Det er et smart træk fra Googles side, de får med dette værktøj en masse redaktører, der med tættekam vurderer den såkaldte kvalitet, ja, og ganske gratis!
Jeg vil nok foreslå kunder at vente lidt med at bruge værktøjet, indtil der foreligger test og data fra de forskellige SEO-fora mv.
Erfaringsmæssigt vil der ikke gå ret lang tid, før det er testet af i alle afskygninger.