Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

robots.txt - Syntax wurde nicht verstanden

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
AtoZ
PostRank 3
PostRank 3
Beiträge: 82
Registriert: 14.03.2008, 00:33

Beitrag von AtoZ » 15.03.2008, 09:12

Ich habe seit einiger Zeit ein neueres Projekt intensiv mit Leben gefüllt und beobachte nun natürlich regelmäßig, was so bei den SUMAs geschieht. Mir fiel auf, dass Seiten aus tieferen Ebenen, deren Pfad umbenannt worden war Probleme machten.

Gestern fiel mir auf: Fehler 404 bei vielen Seiten, die aber in den Details nach dem Einreichen einer neuen Sitemap vorhanden sind.

Gegenprobe: robots.txt mit dem Tool geprüft. Der Syntax dürfte absolut OK sein, Googlechen meldet aber schon bei bei der 2. Zeile (nach der selbst eingesetzten Domainzeile) ZUGELASSEN aber bei "User-Agent: * " - Syntax wurde nicht verstanden - Das verstehe ich nicht :-?

robots.txt

https://www.domainname.de/ = Zugelassen
User-Agent: * Syntax wurde nicht verstanden
Disallow: /weblogs/ brauche ich nicht mehr probieren, da ... s.o.

Da es sich wohl um ein generelles Problem zu handeln scheint, habe ich mal die Domain nicht hier reingesetzt. Will ja nicht gleich als URL Spammer unangenehm auffallen. :wink:

Gibt es eine Idee aus dem Publikum was dies Problem angeht? Anderen ebenfalls aufgefallen?

Grüße
Micha