Vanliga fel som kan ställa till med rejäla problem för SEO-arbetet på plattformar och sajter är vanligtvis också någonting som vi konsulter behöver hålla ett öga på med programvara och manuellt arbete. Om man då befinner sig i en sits med ansvar över fjorton, femton olika webbplatser kan det dagliga arbetet bli lidande bara för att säkerställa att allting är precis som det ska vara.
Lyckligtvis finns det tjänster som är kostnadsfria och kan hålla ett öga på viktiga SEO-element för oss.
Automatisk bevakning med robotto
På robotto kan du med ett gratis konto lägga in upp till fem domäner per konto med automatisk bevakning på vanliga SEO-relaterade problem som tenderar att dyka upp med tiden. Framförallt om man arbetar i större team med marknadsavdelningar, IT-avdelningar och säljavdelningar som alla har ett gemensamt arbete och ansvar över webbplatserna.
HTTP-respons
Den automatiska bevakningen kontrollerar HTTP-responsen, det vill säga om domänen är aktiv och verkar fungera som tänkt (statuskod 200), om den pekar om trafiken (vanligtvis statuskod 301 eller 302) eller inte längre finns (statuskod 404).
Har IT råkat komma åt knapparna och startsidan skickar nu alla sökmotorer vidare till den tillfälliga kampanjsidan med statuskod 301 (en permanent ompekning) så kommer sökmotorerna att tolka kampanjsidan som den nya startsidan och uppdatera sitt index därefter.
Canonical-taggar
Canonical-taggar används för att meddela sökmotorer om en sida är originalet eller en kopia. Om du har publicerat samma produkt med samma information i tre olika kategorier och varje produktsida skrivs ut med en unik webbadress (domän.se/gula-hattar/produkten och domän.se/dyra-hattar/produkter) så kommer sökmotorer att ha ett problem med att besstämma vilken webbadress som ska visas när man söker efter produkten i t.ex. Google eller Bing.
Om dina taggar helt plötsligt ändras, vilket jag varit med om i flera projekt, så kommer robotto att automatiskt meddela dig detta via epost.
Robots.txt
Den viktigaste filen på din webbplats att ha koll på är robots.txt-filen. Textfilen innehåller olika kommandon till sökmotorerna när de kommer på besök – vilka delar av sajten som de ska besöka, vilka som de inte ska besöka och om det finns dokument eller olika parametrar (domän.se/produktkategori/?filter=spanskahattar) som inte ska indexeras.
Alla ändringar i textfilen kommer robotto att plocka upp och summera tydligt.
Låt robotto göra jobbet åt dig och hålla ett öga på eventuella ändringar som sker på din webbplats så kan du lägga tiden på någonting vettigare.
Lämna ett svar