Freitag, 5. Juli 2013

Tag 11 robot.txt/sitemap.html/sitemap.txt und .htaccess Dateien im roots Verzeichnis

hier noch einige feine Stellschrauben für ein besseres SEO.
robot.txt datei : gibt Suchmaschinen vor, was sie auslesen dürfen.z.B. darf der Memeberbereich einer website nicht ausgelesen werden. Dadurch landen diese websites nicht in den google index. "user-agent" heißen die Suchmaschinenroboter. Befehl: "user-Agent": * Disallow/Name des Ordners/
sitemap.html: eine Gliederung der website, die von den Benutzern gesehen werden kann, meist auf der Startseite mit einem button zu erreichen.
sitemap.xml:  diese Datei ist für den robot gedacht. er kann mit dieser datei die gesamte Gleiderung der website mit unterseiten auslesen. Dies geht viel schneller, als wenn der crawler jede Seite einzeln auslesen müßte. diese datei ist für den user nicht zusehen. Je tiefer ein crawler die Strukturebenen einer website auslesen muß, desto geringer die wahrscheinlichkeit, daß der crawler dies tut. gerade shopsystem haben tausende von unterseiten. daher empfiehlt es sich eine sitemap.xml auf der obersten ebene einzurichten.
Exkurs: Visistenkartenwebsites sind tote websites.
.htaccess datei: bietet Zugriffsschutz und eine Reqest-Umleitung: wenn user die domain ohne www. davor eingeben oder mit oder ohne Bindestrich schreiben landen sie immer auf einer zuvor festgelegten Hauptdomain.
Diese 3 wichtigen Dateien kommen in das roots Verzeichnis. Diese Dateien werden als erstes ausgelesen, wenn website aufgerufen wird.

Keine Kommentare:

Kommentar veröffentlichen