Seite 1 von 1

robots.txt - Syntax wurde nicht verstanden

Verfasst: 15.03.2008, 09:12
von AtoZ
Ich habe seit einiger Zeit ein neueres Projekt intensiv mit Leben gefüllt und beobachte nun natürlich regelmäßig, was so bei den SUMAs geschieht. Mir fiel auf, dass Seiten aus tieferen Ebenen, deren Pfad umbenannt worden war Probleme machten.

Gestern fiel mir auf: Fehler 404 bei vielen Seiten, die aber in den Details nach dem Einreichen einer neuen Sitemap vorhanden sind.

Gegenprobe: robots.txt mit dem Tool geprüft. Der Syntax dürfte absolut OK sein, Googlechen meldet aber schon bei bei der 2. Zeile (nach der selbst eingesetzten Domainzeile) ZUGELASSEN aber bei "User-Agent: * " - Syntax wurde nicht verstanden - Das verstehe ich nicht :-?

robots.txt

https://www.domainname.de/ = Zugelassen
User-Agent: * Syntax wurde nicht verstanden
Disallow: /weblogs/ brauche ich nicht mehr probieren, da ... s.o.

Da es sich wohl um ein generelles Problem zu handeln scheint, habe ich mal die Domain nicht hier reingesetzt. Will ja nicht gleich als URL Spammer unangenehm auffallen. :wink:

Gibt es eine Idee aus dem Publikum was dies Problem angeht? Anderen ebenfalls aufgefallen?

Grüße
Micha

Verfasst:
von
SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Verfasst: 15.03.2008, 10:26
von dieappenzeller
Ja, eine Idee hätt ich, weil sich mir der Sinn deiner ersten Zeile nicht erschliesst. Meine Robots sieht z.B. so aus

Code: Alles auswählen

User-agent: * 
Disallow: /login
Disallow: /admin