Jag skickade in en fråga till Matt Cutts för att få svar frågan om vikten av validerad HTML-kod.

Och här är svaret:

Tack vare mitt ”medvetna” grammatiska fel fick de till ett väldigt bra svar. Är dock fortfarande lite frågandes kring om det finns någon brytpunkt när koden är för trasig. Vore trevligt om Google hade något verktyg som jag som SEO:are skulle kunna använda för att skicka in en sida och få tillbaka om koden är OK eller inte. Det går att använda Webmaster Tools och hämta HTML-koden som Googlebot, för att se vad deras bot ser och inte ser. Men det går inte att få reda på några tolkningar av den koden.

För den som inte läst syntaxanalys vid någon högskola eller något universitet kommer här en snabb inblick i problematiken:
Om jag skriver HTML-kod som inte är validerad betyder det att HTML-koden kan tolkas på flera olika sätt. Varje fel grenar upp antalet möjliga meningar av koden mer och mer. De flesta fel är väldigt enkla att gissa sig till men ibland stöter man på webbplatser som enbart fungerar i Internet Explorer 6. Är dessa sidor tillräckligt bra för att Google skulle vilja leverera dem? Det är ju trots allt en försvinnande liten del som fortfarande använder IE 6. Frågan är då om en sida som inte fungerar bra i övriga webbläsare är den relevant som resultat?

Så jag får tacka Matt Cutts och Danny Sullivan för svaret, underbart kul, men som den nyfikne och nördiga person jag är så väcks bara mer frågor. Vad jag inte skulle ge för en timme med Matt Cutts.