Freitag, 26. Oktober 2012

Tag 10

Heureka - Bergfest!!!!

Erstmal was Neues, später dann Wiederholung der letzten Tage...




Robots/Crawler
Robots.txt: um Robotern/Crawlern zu sagen, was sie auf meiner Seite auslesen dürfen. Prinzipiell sollen Crawler ja so viel wie möglich auslesen und meine Seite sollte keyword-optimiert sein. Robots.txt ist im Stammverzeichnis/Root-Verzeichnis. Der Crawler liest HTML schön strukturiert auslesen. Kommt er aber zu Script-Codes (JavaScript z.B.) produziert er Fehlermeldungen und Fehler sind schlecht. Ergo ist es am besten Skripte in einen Extra-Ordner zu packen. In CM-Systemen (wie Wordpress) ist es eh schon so, das Skripte in Extra-Ordnern sind. Programmiert man selbst, macht man also eine Extra-Datei. Wenn man mit einem Mal alle Crawler ausschließen will, benutzt man den sog. Wildchar *, also (www.bjoernsworld.de/suchmaschinen/robots-txt.html):
# Alle Robots ausschließen
User-agent: *
Disallow: /temp/
Wenn man den Slash ( / ) weglässt, gibt man seine Seite ganz für die Indexierung frei:
# ganze Seite freigeben
User-agent: +
Disallow:
In Blogspot unter Einstellungen -> Sucheinstellungen -> Crawler und Indexierung. Da Blogspot ja aber von Google ist, kann ich davon ausgehen, dass die Voreinstellungen für Crawler schon stimmen. Bei allen anderen Websites einfach nur eine txt-Datei erstellen mit dem kurzen Text oben/Verlinkung und ins Root-Verzeichnis stellen. Fertig.

404-Fehler-Seite: In Blogspot unter Einstellungen -> Sucheinstellungen -> Fehler und Weiterleitungen kann ich eigenen Text einbinden. Fehler-Seiten im Allgemeinen (auch 500er-Seiten) sollten zur Verfügung gestellt werden, damit sich die User nicht ärgern.

Verlinkungen: Der Google-Crawler läuft über meine Seite. Ich sage ihm prinzipiell: Wenn du Links findest, dann folge Ihnen auch und indiziere meine Seite . Macht Sinn bei Index-Seite, Leistungsbeschreibung, alles was meine Keywords erhält. Es gibt Seiten, die ich nicht im Themen-Zusammenhang haben möchte (z.B. Impressum mit AGB, Datenschutzrichtlinien etc). Das kann ich ihn auslesen lassen, aber auch sagen, dass er nicht den LInks folgen soll. Kombinationen mit Index follow und Index not follow existieren, die das steuern. In den Header würde ich also übernehmen: <meta name="robots" content="index, follow" />

.htaccess-Datei: Konfiguratioons-Datei zum Umschreiben von URLs oder Speichern vom Benutzernamen. Heißt auch .htaccess. In Wordpress Pro z.B. unter Einstellungen -> Permalinks. In gebräuchlichen Einstellungen kann man wählen. Je kürzer die URL und je mehr Keywords sie enthält, desto besser ist die URL für Crawler zum Auslesen. 

Verlinkungen in der .txt-Datei / HTML
<a href
Links sollten, so aufgebaut werden, dass viele Links zu meiner Website hinführen, aber wenige (!) Links weg. Das hebt die Wertigkeit meiner Seite auf!

Was sollte ich NICHT machen bei OnSite-Optimierung?
- weiße Schrift auf weißem Hintergrund
- kleiner als Schriftgröße 6 (führt zu Abstrafung. Je mehr Abstrafungspunkte ich hab, desto schwieriger wieder nach oben zu kommen in der organischen Suche)
- hinter den Bildern Text verstecken, also auf einer anderen Ebene
- Bilder, die reinsliden auf der Website über sog. dynamische DIV Container (umschließender Container mit Baukasten-Elementen). Problematisch ist z.B auch die Vorlage Gleam von elegantthemes.com.  Viel wird erst bei MouseOver angezeigt. Außerdem gibt es immer weniger Unterseiten, da alles im Browser geladen wird. Problematisch, um Keywords zu setzen. Fazit: Alles was mit Flash, Ajax, JQuery, also vom Design her hübsch ist, ist eher schwer für SEM. Dann muss ich mit guter Offsite-Optimierung versuchen auszugleichen.
- mit Transparenz 100% arbeiten
- dem Crawler eine andere Seite liefern als die, die man eigentlich sehen soll (Bsp. BMW)

Die Google Ranking Faktoren 2012 für Deutschland – ein Review


Die Google Ranking Faktoren 2012 für Deutschland... von SEOundSEM

Keine Kommentare:

Kommentar veröffentlichen