Startseite » SEO » Robots.txt – Die wichtigste Onpage Optimierung?

Robots.txt – Die wichtigste Onpage Optimierung?

Was Sie hier erfahren: Nutzen und Einrichung der Robots.txt

Theorie:

Seiten mit wenig Inhalten oder mit Inhalten, die nicht relevant sind (z.b. impressum) aussperren, um die Seitenqualität zu steigern

To Do:

  • Disallow: Impressum, Datenschutz, Filter, Taxonomien, Suche, Textlose Seiten.
  • Sitemap: Seitmap mit gesamter URL hinzufügen
  • Befehl * (z.B. Disallow: /farbe*/) blockiert alle URL`s mit der Tax. Farbe auf einmal
  • 404 Fehler Seiten in der Search Console finden und auch aussperren z.B. Disallow: /produkt/hartholz-doppelliege-mit-rollen-verstellbar/ (nicht mehr vorhandenes Prod.)
    –> Außer die URL hat Backlinks

Besucher, dann weiterleiten!

  • Sitemap auf noindex setzen z.b. Noindex: http://gartenliege-holz.de/sitemap_index.xml
  • Feed aussperren, bis man sich mit dem RSS Feed beschäftigt

Notizen:

  • steuert den Bot auf relevante Seiten / Verbessert die Nutzung des Crawlingvolumens

Beispiel:

User-agent: *

Disallow: /wp-admin/

# Rechtliches

Disallow: /impressum/

Disallow: /datenschutz/

# Taxonomien

Disallow: /holzart*/

Disallow: /typ*/

# Filter Name des Filters

Disallow: /produktfilter*/

# Shops

Disallow: /shop*/

Disallow: /warenkorb*/

# 404 vermeiden

Disallow: /key/ASWD56425CSADisallow: /hoehenverstellbar/nein/
# Sitemap

Sitemap: http://domain .de/sitemap_index.xml

Noindex: http://domain .de/sitemap_index.xml

Allow: /wp-admin/admin-ajax.php

Bewerten Sie diesen Artikel:
3
2018-06-03T19:34:22+00:00Kategorien: SEO|0 Kommentare

Hinterlassen Sie einen Kommentar