1. Aufbau einer Websuchmaschine
Eine Websuchmaschine ist ein Software-Programm (auch Robot oder Spider genannt) zur Recherche von Dokumenten und funktioniert grob nach folgenden Prinzipien: Ein Webcrawler (oder Spider, Bot – z.B. Googlebot) durchsucht (crawlt) die Website und folgt dort den Links. Die gesamte Website wird seitenweise eingelesen und verarbeitet. Informationen aus den besuchten Webdokumenten werden in Datenbanken gespeichert. Die ausgewerteten Dokumente werden nach bestimmten Kriterien gewichtet und indexiert (sortiert).
2. Indexierung durch Google
Der Googlebot verarbeitet jede der gecrawlten Seiten und überträgt (kompiliert) einen umfangreichen Index aller Wörter, die auf den Seiten ermittelt wurden, sowie deren Position auf den einzelnen Seiten. Darüber hinaus werden auch Informationen aus diversen HTML-Auszeichnungen verarbeitet.
Auf diese komme ich später noch zu sprechen.
3. Technisches SEO in Kürze
Technisches SEO ist ein Teilbereich der Suchmaschinenoptimierung mit dem Fokus auf die technischen Optimierungsmöglichkeiten einer Website. Dazu gehören Prüfungen im Quellcode und Prüfungen von Konfigurationen im WordPress-CMS.
Merke: Das technische SEO dient als Basis dafür, dass weitere Optimierungsmaßnahmen im Content greifen können.
Was beim technischen SEO zu beachten ist:
- Erstellen und pflegen von XML-Sitemaps für Google
- Kontrolle der Indexierung von URLs
- Crawling-Fehler durch Einrichtung von Weiterleitungen
- Probleme mit Kettenweiterleitungen
- Steuerung der Crawler durch die robots.txt-Datei und Robots-Meta-Tags
- Vermeiden von Duplicate Content durch das CMS (Canonical-Tags)
- Unsichere Webseiten ohne SSL-Zertifikat (http)
- Probleme für den mobilen Suchindex
- Probleme im Quelltext mit Einfluss auf SEO (W3C-Fehler)
- Prüfen der Ladezeit (Pagespeed) und entsprechende Optimierung
- Semantische Auszeichnungen im Quelltext (Rich Snippets)