Erstmal was Neues, später dann Wiederholung der letzten Tage...
Robots/Crawler
Robots.txt: um Robotern/Crawlern zu sagen, was sie auf meiner Seite auslesen dürfen.
Prinzipiell sollen Crawler ja so viel wie möglich auslesen und meine Seite
sollte keyword-optimiert sein. Robots.txt ist im Stammverzeichnis/Root-Verzeichnis.
Der Crawler liest HTML schön strukturiert auslesen. Kommt er aber zu
Script-Codes (JavaScript z.B.) produziert er Fehlermeldungen und Fehler sind
schlecht. Ergo ist es am besten Skripte in einen Extra-Ordner zu packen. In
CM-Systemen (wie Wordpress) ist es eh schon so, das Skripte in Extra-Ordnern
sind. Programmiert man selbst, macht man also eine Extra-Datei. Wenn man mit
einem Mal alle Crawler ausschließen will, benutzt man den sog. Wildchar *, also
(www.bjoernsworld.de/suchmaschinen/robots-txt.html):
# Alle Robots
ausschließen
User-agent: *
Disallow: /temp/
Wenn man den Slash ( /
) weglässt, gibt man seine Seite ganz für die Indexierung frei:
# ganze Seite
freigeben
User-agent: +
Disallow:
In Blogspot unter
Einstellungen -> Sucheinstellungen -> Crawler und Indexierung. Da
Blogspot ja aber von Google ist, kann ich davon ausgehen, dass die
Voreinstellungen für Crawler schon stimmen. Bei allen anderen Websites einfach
nur eine txt-Datei erstellen mit dem kurzen Text oben/Verlinkung und ins
Root-Verzeichnis stellen. Fertig.
404-Fehler-Seite: In Blogspot unter Einstellungen ->
Sucheinstellungen -> Fehler und Weiterleitungen kann ich eigenen Text
einbinden. Fehler-Seiten im Allgemeinen (auch 500er-Seiten) sollten zur
Verfügung gestellt werden, damit sich die User nicht ärgern.
Verlinkungen: Der Google-Crawler läuft über meine Seite. Ich sage ihm prinzipiell: Wenn
du Links findest, dann folge Ihnen auch und indiziere meine Seite . Macht Sinn
bei Index-Seite, Leistungsbeschreibung, alles was meine Keywords erhält. Es
gibt Seiten, die ich nicht im Themen-Zusammenhang haben möchte (z.B. Impressum
mit AGB, Datenschutzrichtlinien etc). Das kann ich ihn auslesen lassen, aber
auch sagen, dass er nicht den LInks folgen soll. Kombinationen mit Index follow
und Index not follow existieren, die das steuern. In den Header würde ich also
übernehmen: <meta name="robots" content="index, follow"
/>
.htaccess-Datei: Konfiguratioons-Datei zum Umschreiben von URLs oder Speichern vom
Benutzernamen. Heißt auch .htaccess. In Wordpress Pro z.B. unter Einstellungen
-> Permalinks. In gebräuchlichen Einstellungen kann man wählen. Je kürzer
die URL und je mehr Keywords sie enthält, desto besser ist die URL für Crawler
zum Auslesen.
Verlinkungen in der .txt-Datei / HTML
<a href
Links sollten, so
aufgebaut werden, dass viele Links zu meiner Website hinführen, aber wenige (!)
Links weg. Das hebt die Wertigkeit meiner Seite auf!
Was sollte ich NICHT machen bei
OnSite-Optimierung?
- weiße Schrift auf
weißem Hintergrund
- kleiner als
Schriftgröße 6 (führt zu Abstrafung. Je mehr Abstrafungspunkte ich hab, desto
schwieriger wieder nach oben zu kommen in der organischen Suche)
- hinter den Bildern
Text verstecken, also auf einer anderen Ebene
- Bilder, die
reinsliden auf der Website über sog. dynamische DIV Container (umschließender
Container mit Baukasten-Elementen). Problematisch ist z.B auch die Vorlage
Gleam von elegantthemes.com. Viel wird
erst bei MouseOver angezeigt. Außerdem gibt es immer weniger Unterseiten, da
alles im Browser geladen wird. Problematisch, um Keywords zu setzen. Fazit:
Alles was mit Flash, Ajax, JQuery, also vom Design her hübsch ist, ist eher
schwer für SEM. Dann muss ich mit guter Offsite-Optimierung versuchen
auszugleichen.
- mit Transparenz 100%
arbeiten
- dem Crawler eine
andere Seite liefern als die, die man eigentlich sehen soll (Bsp. BMW)
Die Google Ranking Faktoren 2012 für Deutschland – ein Review
Die Google Ranking Faktoren 2012 für Deutschland... von SEOundSEM
Keine Kommentare:
Kommentar veröffentlichen