versehentlich /disallow in robots.txt - was nun ?
Verfasst: 20.04.2009, 17:25
Hallo zusammen,
ich habe meine bestehende Seite komplett auf Wordpress umgestellt.
Hierbei ist versehentlich für zwei Tage die robots.txt auf User-agent: * Disallow: / gestanden. Nach 2 Tagen habe ich das korrigiert aber G**gle hat so 2 Tage lang nicht auf die Seite zugreifen können.
Am 3. Tag als ich den Fehler bemerkt habe, ist meine Hauptdomain komplett aus den Suchergebnissen verschwunden und seitdem (3 Tage her) purzeln jeden Tag meine Suchergebnisse der Unterseiten bzw. verschwinden aus den SERPs.
G**gle spidert zwar seit der Umstellung meine Seite wieder aber die Suchergebnisse verschlechtern sich von Tag zu Tag.
Gibt sich das wieder ? Oder ist jetzt erst mal Feierabend (was ich ja nicht hoffe).
Danke für eure Antworten.
ich habe meine bestehende Seite komplett auf Wordpress umgestellt.
Hierbei ist versehentlich für zwei Tage die robots.txt auf User-agent: * Disallow: / gestanden. Nach 2 Tagen habe ich das korrigiert aber G**gle hat so 2 Tage lang nicht auf die Seite zugreifen können.
Am 3. Tag als ich den Fehler bemerkt habe, ist meine Hauptdomain komplett aus den Suchergebnissen verschwunden und seitdem (3 Tage her) purzeln jeden Tag meine Suchergebnisse der Unterseiten bzw. verschwinden aus den SERPs.
G**gle spidert zwar seit der Umstellung meine Seite wieder aber die Suchergebnisse verschlechtern sich von Tag zu Tag.
Gibt sich das wieder ? Oder ist jetzt erst mal Feierabend (was ich ja nicht hoffe).
Danke für eure Antworten.