Gestern fiel mir auf: Fehler 404 bei vielen Seiten, die aber in den Details nach dem Einreichen einer neuen Sitemap vorhanden sind.
Gegenprobe: robots.txt mit dem Tool geprüft. Der Syntax dürfte absolut OK sein, Googlechen meldet aber schon bei bei der 2. Zeile (nach der selbst eingesetzten Domainzeile) ZUGELASSEN aber bei "User-Agent: * " - Syntax wurde nicht verstanden - Das verstehe ich nicht

robots.txt
https://www.domainname.de/ = Zugelassen
User-Agent: * Syntax wurde nicht verstanden
Disallow: /weblogs/ brauche ich nicht mehr probieren, da ... s.o.
Da es sich wohl um ein generelles Problem zu handeln scheint, habe ich mal die Domain nicht hier reingesetzt. Will ja nicht gleich als URL Spammer unangenehm auffallen.

Gibt es eine Idee aus dem Publikum was dies Problem angeht? Anderen ebenfalls aufgefallen?
Grüße
Micha