Seit Ende Januar behauptet Google, dass meine robots.txt nicht erreichbar wäre. Seit dem fallen meine Seiten nach und nach aus dem Index. Um wieder von google beachtet zu werden, habe ich schon ein paar mal versucht eine Sitemap hochzuladen aber auch da sagen mir die Webmastertools jedesmal nach ein paar Minuten:
Network unreachable: robots.txt unreachable
We encountered an error while trying to access your Sitemap. Please ensure your Sitemap follows our guidelines and can be accessed at the location you provided and then resubmit.
Ich kann sowohl meine sitemap als auch die robots.txt im browser sehen.
ich habe gleich mal bei der Denic nachgeschaut, bei wem du gehostet bist. Genau das gleiche Problem hatte ich ebenfalls mit dem Hoster. In anderen Suchmaschinen war meine Seite weiterhin zu finden. Meine Supportanfrage bei Evanzo blieb unbeantwortet, daher habe ich den Provider gewechselt und seit dem ist die Domain auch wieder im Index.
Anscheinend sperrt Evanzo den Googlebot aus. Für eine Webseite ist das der absolute Supergau und ein Webhoster der so etwas macht, kann eigentlich gleich den Betrieb einstellen.
ich habe nach 5 unbeantworteten supportmails und einer stunde in der "hotline" warteschlange endlich jemanden erreicht, der zwar anfangs standhaft behauptet hat, sowas wie den googlebot aussperren würden die nicht tun aber nachdem er jemanden gefragt hatte, der ahnung von der technik hat, musste er zugeben, dass dies genau das ist was evanzo tut!
leider haben die vor ca. 3 wochen grade die gebühren fürs nächste jahr eingezogen schade ums geld aber wechseln werde ich auf jeden fall, schon wegen deren unfähigem support.