Seite 1 von 1

Robots.txt was stimmt da nicht?

Verfasst: 08.06.2009, 13:58
von mrDizzle
hALLO,

Ich habe von einer Seite eine Vorlage für eine Wordpress Robots.txt gefunden und wollte diese benutzen sie sieht so aus :
User-agent: *
Sitemap: https://www.meineseite.de/sitemap.xml

# disallow all files in these directories
Disallow: /cgi-bin/
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /wpcontent/themes/
Disallow: /wp-content/plugins/
Disallow: /trackback/
Disallow: /*?*
Disallow: */trackback/

User-agent: Googlebot
# disallow all files ending with these extensions
Disallow: /*.php$
Disallow: /*.js$
Disallow: /*.inc$
Disallow: /*.css$
Disallow: /*.gz$
Disallow: /*.cgi$
Disallow: /*.wmv$
Disallow: /*.png$
Disallow: /*.gif$
Disallow: /*.jpg$
Disallow: /*.cgi$
Disallow: /*.xhtml$
Disallow: /*.php*
Disallow: */trackback*
Disallow: /*?*
Disallow: /category/
Disallow: /tag/
Disallow: /archives/
Disallow: /feed/
Disallow: /wp-*
Allow: /wp-content/uploads/

# allow google image bot to search all images
User-agent: Googlebot-Image
Allow: /*

# allow adsense bot on entire site
User-agent: Mediapartners-Google*
Disallow: /*?*
Allow: /wp-content/
Allow: /tag/
Allow: /category/
Allow: /*.php$
Allow: /*.js$
Allow: /*.inc$
Allow: /*.css$
Allow: /*.gz$
Allow: /*.cgi$
Allow: /*.wmv$
Allow: /*.cgi$
Allow: /*.xhtml$
Allow: /*.php*
Allow: /*.gif$
Allow: /*.jpg$
Allow: /*.png$

# disallow archiving site
User-agent: ia_archiver
Disallow: /

# disable duggmirror
User-agent: duggmirror
Disallow: /

so wenn ich diese Robotx.txt hochlade und dann überprüfen lasse auf der Webseite :
https://www.sxw.org.uk/computing/robots/check.html

erscheinen unzähliche Warning und Errors...

weiss jemand woran das liegen könnte oder hätte Jemand eventuell eine bessere Standard Robotx.txt für Wordpress?

ich komme nicht weiter : (



VIELEN DANK!

Verfasst:
von
Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Verfasst: 08.06.2009, 14:03
von mgutt
Check die robots.txt in den WMT. Alle anderen Tests sind unrelevant. Google hat mit der Zeit eigene Regeln in die robots.txt eingebracht.

Dazu zählen sitemap:, Platzhalter usw.

Verfasst: 08.06.2009, 14:05
von Moritz2007
Umschreiben soll helfen.

Schau mal:


User-agent: Googlebot
# disallow all files ending with these extensions
Disallow: /*.php$
Disallow: /*.js$
Disallow: /*.inc$
Disallow: /*.css$
Disallow: /*.gz$
Disallow: /*.cgi$
Disallow: /*.wmv$
Disallow: /*.png$
Disallow: /*.gif$
Disallow: /*.jpg$
Disallow: /*.cgi$
Disallow: /*.xhtml$
Disallow: /*.php*
Disallow: */trackback*
Disallow: /*?*
Disallow: /category/
Disallow: /tag/
Disallow: /archives/
Disallow: /feed/
Disallow: /wp-*
Allow: /wp-content/uploads/

Bei Fragen Pn

Verfasst:
von

Verfasst: 08.06.2009, 14:22
von mgutt
Das ändert auch nichts daran, dass die Seite, die er zur Prüfung nutzt damit nicht umgehen kann.

Einfach mal google.com/robots.txt in den Test eingeben und schon sieht man, dass die mit Wildcards und Co. ein Problem haben. Die großen Suchmaschinen dagegen nicht ;)