Don’t Panic.

I mitt förra inlägg tog jag upp vanliga problem som kan ligga till grund för att ens webbplats inte finns med i Googles index. Men citatet kommer minst lika ofta från webbplatsägare vars webbplatser finns med i indexet fast med dålig synlighet eller att inte alla sidor på webbplatsen finns med. Därför ska vi titta på vilka skäl det kan finnas till varför Google inte har med alla sidor från din webbplats i sitt index.

Varför ska Google indexera din webbplats?

En av de vanligaste frågorna man glömt att ställa sig själv när man skapar en ny webbplats. Google ska leverera svaret på sina användares sökfrågor, det är hela deras uppgift. Så din uppgift om du vill synas i Google är att ha en webbplats som bäst ger svar på dessa frågor. För att avgöra om din webbplats är bäst använder Google ett antal signaler och variabler och saknar din webbplats tillräcklig styrka i någon av dessa kan den därför bli ignorerad.

  • Webbplatsen är ny.
  • Webbplatsen saknar unikt innehåll.
  • Webbplatsen har för få ”djuplänkar”.
  • Webbplatsen är delvis blockerad via robots-informationen.
  • Webbplatsen använder tekniker som försvårar för Google.

Webbplatsen är ny

För en ny webbplats tar det tid innan Google hittat hela webbplatsen och indexerat alla sidor. Om webbplatsen är yngre än 2-3 månader så skulle jag säga att det inte finns något skäl till panik. Längre tid än så? Då ska du nog läsa vidare.

Webbplatsen saknar unikt innehåll

Detta problem kan uppstå av två anledningar men båda ger upphov till att webbplatsen bara är delvis synlig. Delarna som syns är de som på något sätt uppfattats som tillräckligt unika för Google.

  1. Den första anledningen till detta är att man har sin webbplats synlig från två domäner. Detta är samma problem som togs upp i förra inlägget under ”Webbplatsen är en kopia av en annan webbplats”. Där du även hittar lösningen till problemet.
  2. Den andra anledningen är att man hämtar sin information och text från en annan webbplats. Det kan röra sig om produkttexter från produktens leverantör eller att man hämtar text från flera källor och sammanställer dem. Ett exempel är nyhetswebbplatser som tar nyheter från t.ex. TT och andra källor och återpublicerar dessa.

I båda fallen uppfattar Google det som att de redan har informationen i sitt index och behöver därför inte ytterligare en källa med den informationen. Lösningen på detta är att skriva eget material, varför ska annars Google ha med din webbplats?

Webbplatsen har för få ”djuplänkar”

Låt mig börja med att förklara begreppet djuplänkar då det kanske inte är ett så självklart begrepp. En djuplänk är en länk till en sida långt ner i den hierarkiska strukturen på din webbplats. Tänk en länk till en produkt som ligger i en underunderunderkategori.

När Google indexerar en webbplats så gör de det med länkarna till den som underlag. En länk till en sida gör att Google indexerar den (förutsatt att länken är bra och relevant). Om länken är stark d.v.s. webbplatsen som länkar har hög PR eller är väldigt relevant, då kommer Google att indexera de närmaste sidorna som den sidan länkar till.

Har du en stor webbplats med många sidor behöver du alltså länkar ner i strukturen som Google värderar högt för att få hela webbplatsen indexerad. Annars ser Google det som att resten av webbplatsen inte är tillräckligt intressant eftersom ingen länkar till de delarna av den. Svårigheten om man inte fått några djuplänkar än är att göra dem själv. Gör man själv en länk per undersida så kommer Google troligen avfärda alla dessa länkar som spam. Målet är istället att välja ut nyckelsidor, göra dessa sidor bra, och sedan göra kampanjer mot dem. Då indexeras de sidorna och deras närmaste sidor. När antalet nya indexerade sidor stannar av efter ett tag får man utvärdera om man nu fått med hela webbplatsen eller om det finns delar kvar som behöver en återupprepning av kampanjer och åtgärder.

Kampanjerna kan antingen vara sociala egna kampanjer om man har tiden eller att man anlitar t.ex. Jajja där man väljer ut landningssidor och relevanta sökord för dessa. Eftersom vi jobbat med länkar sedan millennieskiftet.

Skulle en del av webbplatsen falla ur indexet igen efter ett antal månader måste du titta på den delen. Är innehållet tillräckligt relevant? Varför ska kompisar eller kollegor skicka länkar sinsemellan för just de här sidorna på webbplatsen? Om det inte finns tillräckligt bra information eller skäl att hänvisa en kamrat eller kollega dit, då finns det inte heller skäl för Google att hänvisa en av deras användare dit.

Webbplatsen är delvis blockerad via robots-informationen

Precis som i fallet där man presenterar webbplatsen på två domäner så togs detta upp i del 1. Skillnaden är att man helt enkelt inte blockerat hela webbplatsen, vilket är det vanligaste misstaget man gör med robots-informationen, utan enbart delar av den. Läs stycket om ”Webbplatsen är blockerad via robots-informationen för den” så kommer du att finna allt du behöver veta.

Webbplatsen använder tekniker som försvårar för Google

Jag får ofta höra att ”Men Google har blivit bättre på att indexera Flash och PDF” eller att ”Men Google har ju själva sagt att man ska använda AJAX så här”. Tyvärr säger Google väldigt mycket men minst lika mycket håller de tyst om. Att någon blivit bättre på något betyder inte att de blivit bra på det och om Google säger att ”Gör så här om du vill att vi ska förstå att det faktiskt är länk till en sida på din webbplats” betyder inte det att de faktiskt kommer att indexera den.

Google har blivit bättre på att indexera Flash – det är helt korrekt. När jag började med SEO så indexerades inte flash öht. Det finns metoder som gör att flash kan indexeras bra men även om allt indexeras är det få webbplatser baserade på Flash som lyckas placera sig högt. Google har helt enkelt inte lika många signaler att gå på. Sedan har vi i och med html5 troligen sett slutet för Googles förbättringar av förståelsen för Flash. Det finns inte längre något som går att göra i Flash som inte kan göras direkt med html5 istället.

Javascript är populärt att använda i kombination med html då det ger många kraftfulla möjligheter, läs bara Martin Korinths inlägg om Javascript, Injection, Jajja och Google. Det som är problematiskt är att sökmotorerna inte kan läsa Javascript så bra. Även här blir de bättre och bättre men Javascript är kod som körs hos användaren, d.v.s. hos sökmotorns robot. Sökmotorerna vill inte utsätta sig för möjligheten att andra ska kunna köra skadlig kod hos dem. De är därför extremt försiktiga med Javascript. Det finns inte heller någon egentlig anledning att gömma innehåll man vill att sökmotorerna ska komma åt bakom ett krav att köra ett Javascript.

Däremot finns AJAX som använder Javascript för att ladda information asynkront och göra att t.ex. ett byte av sida internt på webbplatsen blir bland annat snabbare och en bättre användarupplevelse. Många har därför börjat använda AJAX och Google har själva tagit fram en standard för hur de vill att man går till väga för att de ska förstå strukturen. AJAX utan Googles standard blir stört omöjlig för sökmotorn att förstå, vilket redan där bör göra att man drar öronen åt sig. Precis som med Flash så går det att få sin webbplats fullständigt indexerad men det är få webbplatser som utöver att indexeras lyckas placera sig högt. Jag misstänker att det kan ha att göra med att länkar som skapas, skapas med #! i dem medan Google indexerar adresserna utan dem. Det blir ett extra lager beräkningar där värde mycket väl kan ”läcka”.

Enklast uttryckt: Om din webbplats inte går att surfa på om man stänger av Javascript, Flash m.m. och bara har möjlighet att visa bilder och text så ligger du inte så bra till.

Fanns inte lösningen till just ditt problem med här?

Att täcka in alla problem en webbplats kan få gällande indexering är nästintill omöjligt. I det fall du kör fast kontakta en sökmotoroptimerare. På Jajja har vi en hel avdelning dedikerad till att hjälpa våra kunder identifiera problem och hitta lösningar.

Styrkan i att anlita ett större bolag som Jajja är just antalet personer, där varje individ är intresserad av lite olika delar av sökmotoroptimering och kan fördjupa sig i dem. Själv är jag nördigt förälskad i välskriven kod och att sökmotoroptimera den.

Viktigast är att du steg för steg testar en sak i taget. Testar man flera saker i taget kan en åtgärd slå undan benen för en annan och du kommer aldrig att komma närmare en lösning.