Viser alle artikler i kategorien Guest post

Mennesker er en del af Googles algoritme

Posted Posted af Rasmus Himmelstrup i Guest post, SEO     Comments 6 kommentarer
jul
26

Du mister måske en masse potentielle kunder, ved at have dårlig brugervenlighed på din hjemmeside, samt en ringe konverteringsrate. Men vidste du, at de to parametre faktisk også kan påvirke dine placeringer på søgemaskinerne?

Dette er et gæsteindlæg af Emil Blücher. Emil er SEO konsulent med selvstændig virksomhed og blogger selv på emil-blucher.dk. Han er aktiv på iværksætterportalen Amino og du finder ham også på Twitter.

Google kigger med
Google har adgang til en masse datakilder – de ved alt om, hvad du søger efter, og sikkert mere om dig end du lige går og tror. De data inkluderer blandt andet Google Analytics, Google Toolbar, Google Adsense, søgninger foretaget på Googles egne søgemaskiner og søgepartnere, samt sikkert flere andre kilder.


Foto credit

Fortsætter udviklingen som den har gjort ind til nu, vil Google i takt med tiden begynde at bruge mere af den mængde data, som de alligevel har adgang til. Men hvad betyder det for dig?

Mennesker er en del af Googles algoritme
Langt størstedelen af de rankingparametre som Google bruger til at bedømme din hjemmeside, tager ikke hensyn til brugernes oplevelse af din hjemmeside. Eksempelvis foretrækkes din hjemmeside overordnet set ikke frem for konkurrenten, “bare” fordi at konkurrentens hjemmeside er turkis og lyserød, samt bruger cliparts fra 90’erne. På samme måde vil du kunne se, at en simpel og informativ hjemmeside ikke nødvendigvis klarer sig bedre i søgemaskinerne, end en sjusket opbygget hjemmeside i eksempelvis .php eller .html.

Sagen er nok den, at det vil være utroligt svært at opstille en matematisk formel for, om en hjemmeside er flot eller grim, brugervenlig eller ikke brugervenlig – og det er her at de besøgende kommer ind i billedet. Ved at kigge “rigtige” mennesker over skulderen, kan Google nemlig få en meget nøjagtig indikation af, hvordan de opfatter en given hjemmeside.

Derfor skal du fedte for de besøgende
Når en person smutter ind på Google for at foretage en søgning, får han fremvist en SERP med ca. 10 idéer til hjemmesider, der kan løse hans behov. Den besøgende klikker på første resultat, hvorefter der kan ske tre ting:

  1. Google har fremvist en hjemmeside, som opfylder personens behov. Brugeren er glad og opholder sig relativ lang tid på hjemmesiden, samt klikker lystigt rundt på den.
  2. Google har fremvist en hjemmeside som personen tror måske kan opfylde hans behov – han klikker på et par interne links, for at undersøge sagen nærmere.
  3. Google har fremvist en hjemmeside, som ikke opfylder personens behov.

Hvis vi antager, at det sidste scenarie er tilfældet, kan der nu ske yderligere to ting: enten opgiver personen helt, eller også klikker han på sin “tilbage” knap i sin browser, for at prøve et af de andre søgeresultater. Det følger Google med i, hvilket betyder, at Google vil vurdere brugernes adfærd.

Hvis søgemaskinen kan se, at mange brugere enten opholder sig meget kort tid på hjemmesiden, inden de giver op og derefter forlader den, eller alternativt klikker tilbage til SERP for at finde et bedre søgeresultat – har det dermed en indvirkning på placeringen.

Hvis Google kan se at de besøgende ikke er tilfredse med din hjemmeside – vil de også betyde noget for rankingen.

Hvad er Bounce Rate?
Bounce Rate er et udtryk for, hvor mange af dine besøgende der vælger at navigere væk fra den side som de lander på, uden at følge interne links på din hjemmeside. Du finder din Bounce Rate i dit analyseprogram – eksempelvis Google Analytics – som udregner tallet, ved at tage antallet af besøgende, for efterfølgende at dividere det med antallet af besøgende, som smutter igen uden at følge interne links. Med andre ord skal du derfor gå efter en så lav Bounce Rate så mulig – det som vi også kalder en lav afvisningsprocent på dansk.

Hvis du har en høj Bounce Rate set i forhold til dine konkurrenter, skal du først og fremmest skal du gøre dig klart, om det er en bestemt kilde til din indkomne trafik, som skaber den høje Bounce Rate. Finder du eksempelvis ud af, at nogle af dine Adwords-besøg har en alarmerende høj afvisningsprocent, kunne det være en idé at kigge på dine Adwords-annoncetekster.

Nogle af de mest typiske fejl, som medfører en høj Bounce Rate, er Facebook eller Adwordsannoncer som er alt for ukonkrete, hvilket resulterer i at brugerens forventninger ikke opfyldes. Dermed skal annonceteksten enten ændres, eller teksten på din hjemmeside tilpasses. Ofte ender det dog med en kombinationsløsning af begge metoder, hvor man efter en masse test når frem til den rigtige løsning.

Loadtid tæller “dobbelt”
Som du sikkert er blevet bekendt med inden for det sidste stykke tid, vil langsomme hjemmesider blive placeret dårligere på Googles SERP end en tilsvarende hjemmeside, som loader hurtig. Hvad mange bare glemmer er, at loadtiden i princippet tæller dobbelt, da den både tæller med direkte som en del af rankingen, samt indirekte som en del af de besøgendes helhedsindtryk. Sagt ligeud er dine besøgende ligeglade om din loadtid er 0,9 sek eller 1,842 sek – men er loadtiden urimelig

høj, har det en betydning for hvor mange undersider de kigger igennem, og dermed hvor lang tid de opholder sig på din hjemmeside.

Oplagte elementer at kigge på for at minimere loadtiden kan være komprimering af billeder samt fjernelse af overflødig tekst. Brug af caching er tit en god idé, og bruger du WordPress eller et andet udbredt CMS er det ofte et område der er relativt nemt at gå til. Af de mere avancerede teknikker til minimering af loadtider, kan blandt andet nævnes CDN (Content Delivery Network), som dog ofte kun er besværret værd på større websites. Det kan også være en god idé at begrænse antallet af plugins som du benytter, samt hive fat i din hostingudbyder, for at høre dem om de skulle have muligheder for tune din opsætning.

Ved at lave målinger undervejs, når du arbejder med loadtider, kan du nemt prøve dig frem, og se hvad der virker.

En del af forklaringen bag rutsjebaneturen

Mange nyindekserede hjemmesider oplever, at blive kastet rundt i SERPs det første stykke tid. Ofte vil de opleve gode placeringer relativt hurtigt, som forvinder lige så hurtigt igen. I denne process bruger Google også de besøgende til at teste, om hjemmesiden falder i god smag hos de besøgende, på en bestemt søgning.

Hvis du dermed allerede fra start, kan vise Google at du tilbyder noget brugbart indhold til de besøgende, vil det være en kæmpe fordel! Dermed ikke sagt, at du bibeholder dine astronomisk gode placeringer, “bare” fordi du har en god brugervenlighed og call to action, som betyder, at de besøgende klikker rundt på din hjemmeside, frem for at forlade den med det samme.

Så for lige at opsummere: Google kigger de besøgende over skuldrene, og ser blandt andet hvilket af resultaterne som de besøgende vælger på SERP, besøgstiden på din hjemmeside, samt din Bounce Rate. Dermed kan du ikke nøjes med at lave hardcore SEO, med dét ene formål at generere trafik. Med andre ord er du:

  • Nød til at have en lille sælger i maven når du skriver dine titels og meta descriptions, for at lokke de søgende til at vælge dit resultat i SERP
  • Nød til at arbejde målrettet med at give de besøgende det som de leder efter
  • Nød til at sørge for god brugervenlighed på din hjemmeside, blandt andet ved at lede dine besøgende rundt via interne links
  • Nød til at arbejde aktivt med konverteringsoptimering, herunder tydelig Call To Action

Er du enig i, at Google bruger Click Throughs til at vægte websites – og at loadtid er en direkte ranking faktor? Skriv din mening eller kommentér artiklen herunder.

Du kan også skrive gæsteindlæg her på bloggen – brug formularen eller kontaktsiden.

Google Pandaen er Tam, Uden Tænder og Ganske Harmløs

Posted Posted af Rasmus Himmelstrup i Guest post, SEO     Comments 31 kommentarer
jun
9

Google elsker tyndt indhold. Google elsker autogenereret indhold. Her kommer modsvaret til det tilsyneladende farlige dyr, de kalder ”Google Panda”. Har updaten overhovedet en effekt?

Mens mange danske online folk går og venter på, at Panda opdateringen fra Google bliver rullet ud i Danmark, er det blevet tid til en status på, hvordan udrulningen har påvirket websites i USA og England, hvor opdatering snart har været ude i 3 måneder.

Hvad betyder Panda opdateringen?
Efter lang og hård kritik af søgeresultaterne har Google måtte sande, at det er på tide at opdatere deres indeks så ligegyldige websites, kopier, og andet tyndt indhold, ikke længere vil dominere hver SERP, som bare ”lugter” lidt af penge.

Hvis du ikke er helt med, så lav en søgning efter; ”a-kasser”, ”bredbånd”, ”mobil bredbånd” mfl.

Googles intentioner været at ramme content farms, altså sider der scraper eller autogenererer og gengiver allerede eksisterende indhold, med det eneste henblik at tjene penge på Adsense, Affiliate, infolinks og så videre.

Googles Panda opdatering har været live i 3-4 måneder og mange større Content Farms, som f.eks. Ehow, og tilsvarrende artikeldatabaser er blevet hårdt ramt. Men hvad med alle de små content farms som i virkeligheden fylder mest i hver SERP?

Case Study viser en tam panda
Følgende er Case Study fra den virkelige verden, hvor Pandaen tilsyneladende viser sig at være totalt tam. Efter at have læst alt for mange artikler om Pandaer, affiliates der har mistet en direktørløn, og alt muligt andet PR-spin, syntes jeg det var på tide, at poste en case med data og 100% indsigt.

Data i denne Case Study er 100% valid og kan til en hver tid fremvises.

For at teste hvorledes Panda ville påvirke content farms oprettede undertegnede en scraper blog i nichen Iphone Unlocking, jailbreaking, hacking osv.

Systemet blev sat til at scrape blandt andet, Yahoo Answers, Ehow og Flickr alt sammen krydret med kommentarer ”lånt” fra YouTube.

Resultatet blev dette pragtfulde website: unlock-iphonesoftware.com

• Antal indekserede sider i Google: 1030 (alle poster/indlæg er scraped eller autogenererede)
• Backlinks YSE: 2
• Domænealder: november 2010
• System: WordPress Blog
• Scraper-plugin: WP-robot autoposter plugin

Ovenstående burde matche præcist de kriterier som Google går efter, når de langer ud efter ”Thin content” eller non-unique scraped content. Elementer – som netop er blevet udråbt til kernen – i Googles Panda update.

Google elsker autogenereret indhold
For ikke at give Google et kæmpe forspring valgte jeg ikke, at installere Google Analytics eller Google Webmaster Tool. Google burde jo kunne tjekke websites ved egen indeksering. Udviklingen i trafik ser således ud i AW-stats, som er min hosts serverstatistik.

Efter en lidt sløv start begynder websitet at blive indekseret og i marts måned rammer trafikken ~20.000 unikke besøg (iflg. AW-stats, GA tal kommer senere). Men alligevel er det rimelig pænt trafik for et website, der ikke er mere end 3 måneder gammelt.

Men det store spørgsmål er: hvorfor sender Google 20.000 besøg om måneden til et website som ifølge Google selv ikke har nogen plads i deres søgemaskine?

OK. Google har ikke spottet at websitet er 100% autogenereret, så jeg forsøger herefter, at fange Googles opmærksomhed, ved at plastre websitet til med annoncer. Det burde være en klar indikator på at websitet kun er sat i verden af én grund.

For at blive klogere og få endnu en datakilde implementerer jeg Google Analytics, hvilket betyder, at Google får alt det data, som de kunne ønske sig.

Google elsker stadig autogenereret indhold
Trafikken på websitet bliver ved med at stige, selvom annoncerne dominerer websitet totalt:
4 Adsense bloks på forsiden, Infolinks, affiliate banners, Amazon Widgets, Chitika, osv. Men trafikken stiger stadig.

Gennem hele april stiger trafikken dag for dag. (Den 11. april skifter jeg DNS, og sitet ryger offline i 24 timer, derfor er der et let drop).

Først omkring den 4. maj begynder trafikken at falde en smule. Det skyldes, at nyhedsværdien her falder, og samtidig er jeg ved at ”løbe tør” for artikler at scrape. Omkring 1000 poster er blevet publiceret indtil da.

Hvis jeg havde tid/lyst ville jeg uden tvivl kunne holde liv i websitet ved at skrive en smule unikt content, og begynde at link builde til sitet. Det har dog aldrig været hensigten her.

Det er helt tydeligt, at websitet ikke er blevet straffet eller på nogen måde ramt af Googles nye hårde linje over for content farms. Dermed heller ikke af Google Panda Updaten. Trafiksammensætningen i Google Analytics giver en fint billede heraf:

Næsten alle besøg kommer fra organiske søgninger og det er tydeligt, at det er long tail søgninger eftersom hvert 8. søgeord er unikt.

Pandaen har ingen tænder!
Personligt virker det hele en smule nedslående. Man kan stadig fylde SERPs op med ligegyldigt content som out-ranker og out-performer websites, der har et originalt budskab og fortjener organisk trafik.

Man kan jo håbe på, at den danske udrulning af Google Panda bliver mere effektiv. Det er dog nok tvivlsomt.

Konklusion: Pandaen virker umiddelbart som det tammeste dyr i skoven.
Konklusionen er, at det absolut er muligt at lave denne type websites, som ikke kræver noget særligt arbejde, og nemt kan trække 30.000 til 40.000 unikke, højrelevante long tail besøg om måneden.

Det har taget længere tid, at skrive dette indlæg end det har taget at udvikle websitet. Derfor er prioriteterne fra Googles side tilsyneladende endnu ikke helt tilpassede.

Der er i forbindelse med udviklingen af websitet på ingen måde brugt snyd eller metoder, som Google ikke accepterer: eks. Cloacking, Doorways eller andet.

Jeg vil opfordre andre til at dele deres meninger, oplevelser eller stille spørgsmål til Casen og Google Panda updaten nedenfor. Alt data til denne case er tilgængeligt for interesserede.

Indlægget her er skrevet af Jonas Aagreen – Seo Analyst hos Omnicom Media Group – og tidligere gæsteskribent her. Det er også ham, der ligger data til denne Case Study.

Topplaceringer i Google – så nemt kan det gøres

Posted Posted af Rasmus Himmelstrup i Guest post, SEO     Comments 16 kommentarer
nov
26

Svaret er ja! Det er nemt at få sider til at ranke i søgemaskiner som Google. Der er faktisk ikke mange ting du behøver at vide, for at kunne få en enkelt side eller to til at ranke godt på meget generiske termer.

At det så ikke har meget med søgemaskineoptimering at gøre, er en helt anden diskussion.

Indlægget her er et gæsteindlæg skrevet af Jonas Aagreen – Seo Analyst hos Omnicom Media Group.

Som privat affiliate er lykken gjort hvis du kan få en blog til at ranke på side 1 ved søgning på generiske søgeord. Herved opnår du en masse trafik, som i sidste ende giver dig lommepenge eller for nogens vedkommende – masser af penge i banken.

De eneste to ting du behøver at vide om søgemaskineoptimering, hvis du på den korte bane skal have placeringer er:

  • Expired domains
  • Links

Posten her handler selvfølgelig om hvordan affiliates ”snyder” Google ved at udnytte expired domains til at høste affiliate kroner i stor stil. Nogen brancher er hårdere ramt en andre, men her har jeg valgt at kigge på Bredbåndsbranchen, som i den grad er ramt af affiliate spam sites.

Det er en affiliate, der ligger øverst på side 1 (organisk) i Google ved en søgning på keywordet bredbånd.

Dblnet.dk kender du sikkert som en god bredbåndsudbyder – ikke? Det er nok fordi, www.dblnet.dk aldrig har haft noget at gøre med bredbånd i den virkelige verden. Faktisk er dblnet.dk et website, som tidligere har beskæftiget sig med Forskning i sundhed. Afdelingen er så sidenhen rykket hen under www.life.ku.dk/ – som er det Det Biovidenskabelige Fakultet under Københavns Universitet. Domænet er herefter blevet ledigt og købt til affiliate brug.

På grund af at domænet tidligere har været ”offentligt” eller i det mindste har tjent et offentligt formål, så har internationale websites linket til websitet og på den måde givet en hel del autoritet videre. Den autoritet gør blandt andet, at sitet ligger højt placeret i søgemaskinen.

Googles algoritme har dermed ikke helt forstået, hvad det handler om. Søgemaskinen mener stadig, at de gamle links er relevante for Dblnet.dk selvom websitet intet har med det gamle indhold at gøre.

Er links så vigtige?
JA de er! Det er hele hemmeligheden bag at denne side kan ligge nummer 1 på bredbånd foran etablerede virksomheder som f.eks.

• TDC
• TELIA
• Telenor
• Fullrate
• Mfl.

Men igen lad os kigge på hvilke links, der er så gode:
Linkprofilen for dblnet.dk ser således ud hvis man bruger http://www.opensiteexplorer.org:

Det virkelige interessante er, at kigge på hvilke eksterne domæner der linker til www.dblnet.dk i den tro, at det gamle ”forskningswebsite” ligner sig selv:

WHO – World Health Organisation linker med ankerteksten: Danish Bilharziasis Laboratory (DBL)
COHAB Initiative – linker med et billede der ikke er synligt på deres website.

Ovenstående er et virkelige gode links, som næsten alene er med til at holde www.dblnet.dk oppe og få gode placeringer.
Udover de gode links er der også lavet en smule sporadisk link building.

Det virkelig interessante er, at Google mener, at www.dblnet.net er mere relevant end f.eks. www.telenor.dk eller www.telia.dk når det gælder en søgning på bredbånd. Men kan mene det er lidt pinligt, at Google ikke opdager disse små finter, men sådan er livet i søgemaskinerne altså.

De etablerede brands, som får dårligere placeringer på grund af websites som www.dblnet.dk må være godt trætte af sådanne sites. Oven i købet får de så også en klud i ansigtet, når samme affiliate skal have penge for salg, som de selv kunne have lavet på samme placering. Men de kan jo bare foretage søgemaskineoptimering på samme måde ikke?

Det vil nok sjældent ske. Man kan ikke forstille sig TDC eller Telia køber domæner, som tidligere har tilhørt andre, fordi domænet tidligere har haft en stærk link profil. Det er heller ikke der, de skal tage kampen op. De er nød til at skabe en generelt bedre link profil.

Hvordan udkonkurrerer man så websites som f.eks. www.dblnet.dk?
Det er i virkeligheden ikke nødvendigvis et spørgsmål om at udkonkurrere – men mere om finde hullerne i de respektive affiliate site link profil:

  • Kontakt de websites, der fejlagtigt linker og giv dem den nye adresse. De vil med garanti skynde sig at ændre linket.
  • Udfyld en spam report til Google. Forklar et de ranker et fejlagtigt domæne – det hjælper ikke altid, men kan påvirke udviklingen på sigt.

Hvis først WHO og COHAB initiative fjerner deres links – vil www.dblnet.dk ikke længere kunne fastholde deres gode position i søgemaskinerne.

Ødelægger affiliates så søgeresultaterne?
Både og. Man kan sige, at de er generende for brugerne, da de ofte kommer ind på ligegyldige affiliate websites, som kun eksisterer for søgemaskinernes skyld. Men samtidig er affiliate sites med til at udfordre Google således at søgemaskinen hele tiden tvinges fremefter i deres stræben på at gøre resultaterne bedre.

Så lang tid Google har dette hul i deres algoritme, hvor visse typer af expired domains for lov at bibeholde deres autoritet, kommer det alle der laver affiliate til gode. Det skaber ganske enkelt en kunstig konkurrencesituation for de etablerede selskaber.

Et site bliver til mange:
Når først affiliate kronerne ruller i lommen så giver det blod på tanden. Affiliate websites avler affiliate websites.

I fremtiden skal vi nok holde øje med disse websites, som ejeren af www.dblnet.dk har sat i søen:
Medserv.dk – tidligere Medical news site – Nu Bredbånd
esf.dk – tdiligere – Forbundet for kommunikation og sprog – Nu Bredbånd

…og mange flere.