WebAdmin: Sitemap, Google & Co.

Sitemaps wirken sich auf das Ranking in Suchmaschinen aus. Es handelt sich um eine Linksammlung in einer Datei, die vom Robot gelesen wird und die Zusammenhänge auf der Seite mit Hilfe von

  • XML (Extensible Markup Language)
  • TXT (einfache Textdatei)
  • HTLM (HyperText)
  • ROR (spezielles XML-Format für alle Objekte ror/rss, ror/rdf, Resource of Resources)

Beispiel einer XML-Sitemap

<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9"
 xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
 xsi:schemaLocation="http://www.sitemaps.org/schemas/sitemap/0.9
 http://www.sitemaps.org/schemas/sitemap/0.9/sitemap.xsd">
 <url>
  <loc>http://example.com/</loc>
  <lastmod>2006-11-18</lastmod>
  <changefreq>daily</changefreq>
  <priority>0.8</priority>
 </url>
</urlset>

Siemap erstellen

Viele Webseiten bieten Dienste zum Erstellen einer Sitemap in allen möglichen Versionen an. Allerdings gibt man dabei doch sehr viele Informationen über die Struktur seiner Webseite an Fremde heraus, das ist meiner Ansicht nach nicht optimal. Besser ist es, ein Programm zur Sitemap-Generierung herunterzuladen und selbst für die Sitemap zu sorgen. Die Programme sind meist kostenlos erhältlich, bei WordPress gibt es mehrere Plugins zu diesem Zweck, aber auch für andere CMS (Content Management Systeme) gibt es Lösungen.

Bei Änderungen auf der Webpage muss die Sitemap angepaßt werden, meist erledigt die eingesetze Software dies aber automatisch. Bei größeren Änderungen empfhielt es sich, die Datei manuell komplett neu zu erstellen. Bei Google und Bing kann man die Sitemap dann auch hochladen und somit Crawling-Fehler verhindern.

 Sitemap überprüfen

Es empfiehlt sich eine periodische Überprüfung der Sitemap, damit erkennt man Fehler im Seitenaufbau, in der Sitemap und in der Codierung sehr schnell. Oftmals erzeugen eingesetzte Erweiterungen (Plugins, Widgets) diese Fehler, weil sie nicht immer sauber programmiert sind und damit fehlerhafte Links erzeugen. Zur Analyse verwende ich meist den Markup Validation Service von W3C, die halte ich für eine sichere Webseite. Es ist ein weltweites Gremium zur Standardisierung des WWW und arbeitet mit dem deuschen Institut für KI zusammen. Dort findet man auch entsprechende Dokus.

Ein Protokoll zeigt dann die gefundenen Bug an, beispielsweise

wie gesagt, die Fehlermöglichkeiten sind sehr vielschichtig, es empfiehlt sich die Suche in den ensprechenden Dokumentationen bzgl. Syntaxfehlern und falschen/fehlenden Attributen. Falls die Fehler von einem Programm erzeugt werden, kommen sonst schnell dutzende oder hunderte Fehler zusammen.

Sitemap optimieren

Die Webmaster-Tools von Google und Bing bieten dazu Hilfe zur Erkennung und Optimierung an für die Sitemap, HTML-Verbesserungen, Content Keywords und Strukturierte Daten an. Dazu ist allerdings ein Account erforderlich. XML ist derzeit „State of the art“, weil sie auch Informationen zur Aktualität der Daten enthalten. Text-Sitemaps enthalten nur reine Links. Die anderen Formate sollten nur nach eingehender Prüfung verwendet werden. Grundsätzlich gilt für alle Sitemap-Angaben, vermeide möglichst

  • Doppelte und fehlerhafte Angaben/Links  (Fehler 404 nicht gefunden)
  • veraltete Angaben/Links.

das hilft beim Ranking, weil die Suchmaschine die Seite besser bewerten kann, und nur ein zufriedenener Suchbot bringt viele Klicks. Ein bisschen Suchmaschinen-Optimierung (SEO) schadet nie!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.