Mennesker er en del af Googles algoritme

Posted Posted af i Guest post, SEO     Comments 6 kommentarer
jul
26

Du mister måske en masse potentielle kunder, ved at have dårlig brugervenlighed på din hjemmeside, samt en ringe konverteringsrate. Men vidste du, at de to parametre faktisk også kan påvirke dine placeringer på søgemaskinerne?

Dette er et gæsteindlæg af Emil Blücher. Emil er SEO konsulent med selvstændig virksomhed og blogger selv på emil-blucher.dk. Han er aktiv på iværksætterportalen Amino og du finder ham også på Twitter.

Google kigger med
Google har adgang til en masse datakilder – de ved alt om, hvad du søger efter, og sikkert mere om dig end du lige går og tror. De data inkluderer blandt andet Google Analytics, Google Toolbar, Google Adsense, søgninger foretaget på Googles egne søgemaskiner og søgepartnere, samt sikkert flere andre kilder.


Foto credit

Fortsætter udviklingen som den har gjort ind til nu, vil Google i takt med tiden begynde at bruge mere af den mængde data, som de alligevel har adgang til. Men hvad betyder det for dig?

Mennesker er en del af Googles algoritme
Langt størstedelen af de rankingparametre som Google bruger til at bedømme din hjemmeside, tager ikke hensyn til brugernes oplevelse af din hjemmeside. Eksempelvis foretrækkes din hjemmeside overordnet set ikke frem for konkurrenten, “bare” fordi at konkurrentens hjemmeside er turkis og lyserød, samt bruger cliparts fra 90’erne. På samme måde vil du kunne se, at en simpel og informativ hjemmeside ikke nødvendigvis klarer sig bedre i søgemaskinerne, end en sjusket opbygget hjemmeside i eksempelvis .php eller .html.

Sagen er nok den, at det vil være utroligt svært at opstille en matematisk formel for, om en hjemmeside er flot eller grim, brugervenlig eller ikke brugervenlig – og det er her at de besøgende kommer ind i billedet. Ved at kigge “rigtige” mennesker over skulderen, kan Google nemlig få en meget nøjagtig indikation af, hvordan de opfatter en given hjemmeside.

Derfor skal du fedte for de besøgende
Når en person smutter ind på Google for at foretage en søgning, får han fremvist en SERP med ca. 10 idéer til hjemmesider, der kan løse hans behov. Den besøgende klikker på første resultat, hvorefter der kan ske tre ting:

  1. Google har fremvist en hjemmeside, som opfylder personens behov. Brugeren er glad og opholder sig relativ lang tid på hjemmesiden, samt klikker lystigt rundt på den.
  2. Google har fremvist en hjemmeside som personen tror måske kan opfylde hans behov – han klikker på et par interne links, for at undersøge sagen nærmere.
  3. Google har fremvist en hjemmeside, som ikke opfylder personens behov.

Hvis vi antager, at det sidste scenarie er tilfældet, kan der nu ske yderligere to ting: enten opgiver personen helt, eller også klikker han på sin “tilbage” knap i sin browser, for at prøve et af de andre søgeresultater. Det følger Google med i, hvilket betyder, at Google vil vurdere brugernes adfærd.

Hvis søgemaskinen kan se, at mange brugere enten opholder sig meget kort tid på hjemmesiden, inden de giver op og derefter forlader den, eller alternativt klikker tilbage til SERP for at finde et bedre søgeresultat – har det dermed en indvirkning på placeringen.

Hvis Google kan se at de besøgende ikke er tilfredse med din hjemmeside – vil de også betyde noget for rankingen.

Hvad er Bounce Rate?
Bounce Rate er et udtryk for, hvor mange af dine besøgende der vælger at navigere væk fra den side som de lander på, uden at følge interne links på din hjemmeside. Du finder din Bounce Rate i dit analyseprogram – eksempelvis Google Analytics – som udregner tallet, ved at tage antallet af besøgende, for efterfølgende at dividere det med antallet af besøgende, som smutter igen uden at følge interne links. Med andre ord skal du derfor gå efter en så lav Bounce Rate så mulig – det som vi også kalder en lav afvisningsprocent på dansk.

Hvis du har en høj Bounce Rate set i forhold til dine konkurrenter, skal du først og fremmest skal du gøre dig klart, om det er en bestemt kilde til din indkomne trafik, som skaber den høje Bounce Rate. Finder du eksempelvis ud af, at nogle af dine Adwords-besøg har en alarmerende høj afvisningsprocent, kunne det være en idé at kigge på dine Adwords-annoncetekster.

Nogle af de mest typiske fejl, som medfører en høj Bounce Rate, er Facebook eller Adwordsannoncer som er alt for ukonkrete, hvilket resulterer i at brugerens forventninger ikke opfyldes. Dermed skal annonceteksten enten ændres, eller teksten på din hjemmeside tilpasses. Ofte ender det dog med en kombinationsløsning af begge metoder, hvor man efter en masse test når frem til den rigtige løsning.

Loadtid tæller “dobbelt”
Som du sikkert er blevet bekendt med inden for det sidste stykke tid, vil langsomme hjemmesider blive placeret dårligere på Googles SERP end en tilsvarende hjemmeside, som loader hurtig. Hvad mange bare glemmer er, at loadtiden i princippet tæller dobbelt, da den både tæller med direkte som en del af rankingen, samt indirekte som en del af de besøgendes helhedsindtryk. Sagt ligeud er dine besøgende ligeglade om din loadtid er 0,9 sek eller 1,842 sek – men er loadtiden urimelig

høj, har det en betydning for hvor mange undersider de kigger igennem, og dermed hvor lang tid de opholder sig på din hjemmeside.

Oplagte elementer at kigge på for at minimere loadtiden kan være komprimering af billeder samt fjernelse af overflødig tekst. Brug af caching er tit en god idé, og bruger du WordPress eller et andet udbredt CMS er det ofte et område der er relativt nemt at gå til. Af de mere avancerede teknikker til minimering af loadtider, kan blandt andet nævnes CDN (Content Delivery Network), som dog ofte kun er besværret værd på større websites. Det kan også være en god idé at begrænse antallet af plugins som du benytter, samt hive fat i din hostingudbyder, for at høre dem om de skulle have muligheder for tune din opsætning.

Ved at lave målinger undervejs, når du arbejder med loadtider, kan du nemt prøve dig frem, og se hvad der virker.

En del af forklaringen bag rutsjebaneturen

Mange nyindekserede hjemmesider oplever, at blive kastet rundt i SERPs det første stykke tid. Ofte vil de opleve gode placeringer relativt hurtigt, som forvinder lige så hurtigt igen. I denne process bruger Google også de besøgende til at teste, om hjemmesiden falder i god smag hos de besøgende, på en bestemt søgning.

Hvis du dermed allerede fra start, kan vise Google at du tilbyder noget brugbart indhold til de besøgende, vil det være en kæmpe fordel! Dermed ikke sagt, at du bibeholder dine astronomisk gode placeringer, “bare” fordi du har en god brugervenlighed og call to action, som betyder, at de besøgende klikker rundt på din hjemmeside, frem for at forlade den med det samme.

Så for lige at opsummere: Google kigger de besøgende over skuldrene, og ser blandt andet hvilket af resultaterne som de besøgende vælger på SERP, besøgstiden på din hjemmeside, samt din Bounce Rate. Dermed kan du ikke nøjes med at lave hardcore SEO, med dét ene formål at generere trafik. Med andre ord er du:

  • Nød til at have en lille sælger i maven når du skriver dine titels og meta descriptions, for at lokke de søgende til at vælge dit resultat i SERP
  • Nød til at arbejde målrettet med at give de besøgende det som de leder efter
  • Nød til at sørge for god brugervenlighed på din hjemmeside, blandt andet ved at lede dine besøgende rundt via interne links
  • Nød til at arbejde aktivt med konverteringsoptimering, herunder tydelig Call To Action

Er du enig i, at Google bruger Click Throughs til at vægte websites – og at loadtid er en direkte ranking faktor? Skriv din mening eller kommentér artiklen herunder.

Du kan også skrive gæsteindlæg her på bloggen – brug formularen eller kontaktsiden.

6 Kommentarer til “Mennesker er en del af Googles algoritme”

  • Hej Emil
    Fint gæsteindlæg og langt hen af vejen giver det jo fint mening at loadtid og bouncerate er en del af algoritmen, men hvor stor er indvirkningen på det endelige resultatet når alt kommer til alt?

  • Jeg er i hvert fald helt enig i, at loadtid kan være en ranking faktor, for det har Google selv fortalt os. :)
    http://googlewebmastercentral.blogspot.com/2010/04/using-site-speed-in-web-search-ranking.html

    Det er også meget sandsynligt, at en vis mængde brugsdata bliver brugt eller vil blive brugt i fremtiden. Herunder især den type bounce, hvor folk kommer fra søgemaskinerne, og få øjeblikke efter at have klikket på et søgeresultat klikker på et andet søgeresultat eller gentager søgningen. Det sender et signal om, at brugeren ikke har fundet, hvad han/hun var ude efter.

    Jeg tror dog, at load-tiden er en minimal ranking faktor, som det ser ud lige nu. Google skriver selv, at den kun vil blive brugt i ganske få tilfælde. (For et år siden var det under 1 procent af søgningerne, der blev påvirket).

    Brugerdata er en anden sag. Der er et ret stort potentiale for at bruge dem i samråd med andre faktorer og signaler. Og derfor kan de godt blive ganske væsentlige med tiden.

  • Jamen så er har vi jo en undskyldning mere for at arbejde med usability og konverteringsoptimering :-) huraa

  • @Nikolaj: Loadtiden i sin reneste form, spiller ikke den store rolle endnu for de flestes vedkommende.
    Men en meget høj loadtid, kan eksempelvis resultere i at at du har svært ved at blive indekseret, hvis du har mange undersider. Dét kombineret med at Google trods alt kigger på loadtiden, samt at du kan gøre dine besøgende så utålmodige at de forlader din hjemmeside hurtigt, betyder at du bør arbejde med loadtiden hvis den er alarmerende høj.
    Som det er nu, spiller de ting som jeg har peget ud en rolle. Men spørger du mig, er det faktorer som vil spille en større rolle i fremtiden. Her tænker jeg især på de brugerdata som Google kan trække ud, samt ekstremt høje loadtider. Har du gennemsnitslig loadtid, vil der nok ikke være noget værdi at hente i fremtiden, for at korte et halvt sekund af.

  • God artikel Emil. Jeg er enig med Frank i, at load tid sandsynligvis kun påvirker ranking på en meget lille del af søgningerne. Dog bør man dog altid gå efter, at mindske load tid for at skabe en optimal brugeroplevelse på siden. Desuden kan man forestille sig, at lå der to domæner med samme domain trust meget tæt på hinanden ville den med bedst load tid kunne outranke den anden.

    Det er efter min mening helt sikkert, at Google på en eller anden vise benytter brugsdata som en ranking faktor. Hvor meget er selvfølgelig svært at sige – men et patent fra Google indeholder blandt andet:
    “… The responsive documents are organized based in whole or in part on usage statistics.”
    Patentet blev indgivet samme dag som Google præsenterede os for Panda opdateringen – så mon ikke brugerdata har en vis effekt på ranking?
    Se en gennemgang af patentet her:
    http://www.seobythesea.com/2011/07/how-google-might-rank-pages-based-upon-usage-information/

    I følge Googles egne forslag til hvad der klassificerer en god webside:
    http://googlewebmastercentral.blogspot.com/2011/05/more-guidance-on-building-high-quality.html
    Er der ligeledes mange indikationer på, at Google ganske enkelt er nød til at inddrage brugerdata.
    Mange af de spørgsmål de stiller i artiklen kræver, at Google har adgang til og kan agere på baggrund af brugerdata.

    Du skriver Emil:
    “Hvis Google kan se at de besøgende ikke er tilfredse med din hjemmeside – vil de også betyde noget for rankingen.” – ja det er der således en overvejende sandsynlighed for. Men hvis du som website ejer kan se, at dine besøgende generelt ikke er tilfredse med din side, er ranking ikke dit største problem :)

  • Jeg er enig i det med dig i at en god CTR er vigtig. Det giver desuden god mening, at Google benytter sig af allerede kendte data til at fastslå, om de hjemmesider, de sender deres brugere hen til nu også er en “succesoplevelse” for brugerne – jo flere succesoplevelser brugerne har via Google, desto bedre for Google.

    Omkring loadtid er jeg delvist enig. Ja, det er vigtigt for brugeroplevelsen, at en hjemmeside indlæses hurtigt, men jeg har oplevet flere eksempler på hjemmesider, som har en lang indlæsningstid (herunder eksempelvis Amino), men hvor brugerne alligevel klikker sig flittigt rundt, fordi de kan finde godt indhold. En længere loadtid synes ikke at have en umiddelbar effekt på CTR i det nævnte tilfælde.

    Vigtigst for CTR må være, at brugerne finder godt og relevant indhold, herefter er loadtiden knap så væsentlig.

Kommenter post