Don’t Panic.

I mitt förra inlägg hoppade jag över de två första punkterna som jag normalt hanterar vid en sökmotoroptimering; indexering och läsbarhet för sökrobotar. Jag tänkte i detta inlägg gå tillbaka och diskutera indexering. En av de vanligaste kommentarerna jag får höra måste vara ”min hemsida finns inte med i Google!” och det brukar aldrig stämma. Så om detta är du – börja med att göra som The Hitchhiker’s Guide to the Galaxy säger: ”Don’t Panic” och läs sedan vidare.

Vad menas med indexering?

Indexering är ett sådant ord som tekniker använder som en självklarhet men som troligen inte är självklart för så många andra. De som är gamla nog att en gång i tiden ha använt pappersböcker vet dock vad ett index är. Ett index är som en ordlista längst bak i boken där man får sidhänvisningar till vilka sidor som ett ord förklaras eller förekommer. Indexering är processen när detta index byggs upp.

Förenklat kan man se sökmotorerna som databaslagrade index av Internet och vid en sökning så gör man en slagning i detta databaslagrade index och får tillbaka en lista på alla sidor där ordet förklaras eller förekommer. Därtill använder sökmotorerna massor av signaler och parametrar från sidorna för att bestämma i vilken ordning dessa sidor ska presenteras och tekniken för att få en sida att hamna så högt upp i denna listning som möjligt heter sökmotoroptimering eller SEO från engelskans Search Engine Optimization.

Hur du tar reda på om din webbplats finns med i Google eller inte

Det första jag tittar på när jag sökmotoroptimerar en webplats är alltså om en webbplats indexerar överhuvudtaget. Om den inte gör det måste jag börja med att rätta till det – annars är allt arbete förgäves. Det första jag gör vid misstanke om att indexeringen inte fungerar är att göra en site-sökning. I Googles sökfält skriver du in:
site:domän.se

Där du byter ut domän.se mot din egen domän, för www.jajja.com skulle det se ut så här:
site:www.jajja.com

Observera att det inte är några mellanslag någonstans och att jag har med ”www” då vår webbplats ligger på www.jajja.com och inte på jajja.com. Detta för att vi tidigare använt exempelvis blogg.jajja.com och magazine.jajja.com. Det kallas för subdomäner men är ett annat kapitel eller blogginlägg.

Vill du läsa på lite mer om site-sökningar rekommenderar jag min tidigare bloggpost på ämnet.

Om du sökt med www och inte får upp några sidor vid site-sökningen och du är osäker på om din webbplats använder www eller inte så testa att göra en sökning utan www. Får du fortfarande inte upp några sidor? Då har du akuta problem med din indexering. Får du bara upp några sidor men långt ifrån alla sidor så har du mindre akuta problem och det kommer jag att beröra först i nästa inlägg.

Akuta problem

Om webbplatsen inte finns med alls i Google så är följande de vanligaste problemen jag stöter på:

  • Webbplatsen saknar inkommande länkar och är inte rapporterad till Google att den existerar.
  • Webbplatsen är blockerad via robots-informationen för den.
  • Webbplatsen är en kopia av en annan webbplats.
  • Webbservern blockerar Googlebot.
  • Webbplatsen innehåller skadlig kod eller är hackad så att Google inte känner sig trygga att skicka besökare till den.

Webbplatsen saknar inkommande länkar och är inte rapporterad till Google att den existerar

Om webbplatsen är helt ny och saknar länkar till sig och du inte talat om för Google att den finns så är skälet helt enkelt att Google inte vet om den. Länka från en plats som Google känner till och har indexerat, exempelvis sociala medier eller tala om för Google att du skapat en ny webbplats. För att tala om för Google att du har lagt upp en webbplats så använder du Webmaster Tools, det kräver ett Google-konto och har du inget följ instruktionerna du får på länken för att registrera ett.

Webbplatsen är blockerad via robots-informationen för den

Har du eller din leverantör blockerat webbplatsen via robots-informationen för webbplatsen så ser du det antingen i robots.txt eller i meta-robots. Låt oss börja med robots.txt, denna fil ska ligga högst upp i hierarkin för din webbplats d.v.s. http://www.domän.se/robots.txt där du byter ut www.domän.se mot din domän. Hittar du ingen robots.txt så är det inte den som är problemet, för sökmotorerna antar att de får göra som de vill om inte du säger något annat. Finns filen där och den innehåller:
User-agent: *
Disallow: /

Så är det den som är problemet. Ta bort det alternativt byt disallow till allow, allow stöds dock inte av alla sökmotorer. Läs mer om robots.txt på Wikipedia.

Meta-robots är en meta-tagg som är unik för respektive sida på webbplatsen. Det gör att det kan bli rätt stökigt att hitta och uppdatera alla felaktiga taggar. Surfa in på startsidan för din webbplats och öppna källkoden för denna och sök sedan efter:
meta name="robots"

Då kanske du hittar en tagg som ser ut så här:
<meta name="robots" content="noindex, nofollow" />

Om detta finns i källkoden så säger den till alla sökmotorer att sidan inte får indexeras (noindex) och inga länkar får användas av sökmotorerna (nofollow). Noindex och nofollow behöver inte båda förekomma och det är främst noindex som blockerar indexeringen. Men om nofollow finns på startsidan kommer ingen länk till övriga sidor på webbplatsen att röras och resten av webbplatsen indexeras då inte.

Ta bort taggen från alla sidor på din webbplats som du inte vill blockera från sökmotorerna. Taggen kan dock vara till nytta på sidor du vill blockera från sökmotorerna t.ex. inloggningssidor eller sidor med avtalstexter så som cookie-information etc som inte är information en användare söker efter i sökmotorerna.

Webbplatsen är en kopia av en annan webbplats

Är webbplatsen en exakt kopia av en annan, exempelvis om du har webbplatsen dels på www.domän.se och på www.domän.com, så ser sökmotorerna dessa som två separata webbplatser. De anser också att den ena av dessa gör upphovsrättsbrott och försöker avgöra vilken webbplats som är den korrekta. Äger du flera domännamn, t.ex. i syfte att skydda ditt varumärke eller av säkerhetsskäl att mail inte ska hamna i fel händer (läs https://www.iis.se/blogg/vem-laser-din-e-post/ om du inte gjort det) så ska dessa domäner omdirigera trafiken via en ”301 Redirect” till den domän som är din huvuddomän. Annars förvirrar du sökmotorerna och skadar din indexering och din synlighet. Behöver du hjälp så kontakta i första hand din domänleverantör (registrar) eller ditt webbhotell som sköter den slutliga hanteringen av dina domännamn. Var också tydlig med att det ska göras en ”301 Redirect” från alla övriga domäner till huvuddomänen. Det finns flertalet sätt att hantera domäner och alla aktörer är inte pålästa i hur de ska agera för att vara sökmotorvänliga.

Webbservern blockerar Googlebot

Nu är alla enkla punkter avklarade – de punkter som enkelt kan kontrolleras och som är förhållandevis, beroende på system och webbhotell, lätta att åtgärda. Att avgöra om Googlebot är blockerad gör du enklast via Googles Webmaster Tools, http://support.google.com/webmasters/bin/answer.py?hl=sv&answer=158587, eller genom att installera ett plugin till sin webbläsare som tillåter dig att byta hur webbläsaren presenterar sig. Exempelvis kan du använda User Agent Switcher till FireFox eller liknande plugin till din favorit webbläsare. Visar det sig att du inte kommer åt din webbplats när du surfar som Googlebot så är det dags att kontakta den som levererat webbplatsen. Om de inte kan svara på varför det är så här är nästa steg att du vänder dig till ditt webbhotell. Går du bet även där så kan du vända dig till en sökmotoroptimerare för hjälp. Denna punkt är inte svår att identifiera men inte helt enkel att lösa och det kan kännas rörigt men kom ihåg, Don’t Panic. Alla problem har lösningar.

Webbplatsen innehåller skadlig kod eller är hackad

Sista punkten här är knepigast. Om Google tagit bort webbplatsen ur sitt index för att den är skadlig så har du fått ett meddelande från dem via webmaster tools. Om du inte registrerat dig som ägare där än så är det hög tid att göra det. Detta är Googles huvudsakliga kommunikationskanal när de vill meddela oegentligheter till webbplatsägare. Nu finns det tyvärr så många olika sätt att hacka en webbplats och olika skadliga koder att lägga in att det blir omöjligt för mig att ge dig enkla riktlinjer för att rädda din webbplats. Bästa sättet om du själv inte anser dig kunnig nog är att ta in extern hjälp, den som byggt webbplatsen bör vara bäst lämpad.

Om ditt akuta problem kvarstår kan du antingen kontakta Jajja för att få hjälp annars finns de flesta svenska SEO:are på Twitter och följer #svSEO. Observera dock att om du kommit hit ner så kan det vara så att du måste acceptera att enda lösningen är ett byte av webbhotell och webbplats och om du vill behålla ditt domännamn att det kan krävas månader innan allting fungerar som det ska. Byter du även domännamn och gör nytt från start så blir det som en ny webbplats och det blir en period på 6 månader med lite hoppande och därefter ett förhoppningsvis stabilt klättrande mot toppen.

Icke akuta problem

Inlägget blev längre än tänkt men ämnet är så viktigt att jag tycker att det är värt två inlägg. I nästa inlägg (som kommer om två veckor) kommer jag försöka att ge dig som bara har delvis indexering lite hjälp och råd hur du ska arbeta för att komma framåt. Vill man förbättra sin synlighet är det dock fritt fram att kontakta Jajja Communications och köpa någon av våra tjänster. Bakom alla våra tjänster finns en enorm expertis och kompetens redo att hjälpa dig.