mein erster Beitrag;)
Ich hab eine Sitemap für Google erstellt und eine robots.txt mit inhalt
Code: Alles auswählen
User-agent: *
Allow: /
URL wird von der "robots.txt"-Datei blockiert.
Häh!? - versteh ich nicht.
Frage 1:
Kennt jemand das Problem?
Ich hab die robots gelöscht ein paar Tage gewartet: Bei Google gabs aber weiterhin die gleiche Meldung.
und noch eine Frage dazu
Frage 2:
Gibts bei Google (Webmaster-Tools) eigentlich irgendwo ein Kontakt-Formular zu genau solchen Problemen?
Bedankt!