Seite 1 von 1

Sitemap wird nicht erkannt

Verfasst: 28.07.2013, 09:26
von hochzeitsfotograf
Hallo,

ich habe das Problem, dass meine Sitemap nicht erkannt wird. Wenn ich bei Webmastertools nachschaue, steht dort 10 Warnungen. Es heißt, dass einige Seite durch meine robot.txt Datei geblockt werden.

Meine robot.txt sieht folgendermaßen aus:

#robots.txt für die Domain ......
#erzeugt am ......
User-agent: googlebot
Disallow:

Was mache ich falsch? Ich nutze das Yoast SEO Plugin, das die Sitemap automatisch erstellt und an Google schickt


Danke

Verfasst:
von
SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Verfasst: 28.07.2013, 10:00
von bbnetch
mach mal besser

Code: Alles auswählen

User-agent: *
Disallow: /ordner1
Disallow: /ordner2
dann sind all spider erlaubt, auch wenn sie nur "google" heissen, oder von anderen suchmaschienen kommen.
alles was mit disallow markiert ist, ist nicht erlaubt.
also so wie du das machst ist im grunde alles nicht erlaubt, wenn du nicht nur einzelne ordner oder files angiebst :)

gieb mal robots.txt bei google ein, und lese nach was das ueberhaupt bedeutet.
ist ja keine kunst die infos zu finden, oder das zu verstehen.