Erst alle Crawler ausschließen, dann alle erlauben?
Verfasst: 17.08.2013, 14:54
Ich bin verwirrt. Ich habe eine Idee für einen Blog und die Domain dazu habe ich jetzt auch.
Nun kam mir in den Sinn per .htaccess-Datei alle Crawler von der Seite auzuschließen indem ich ein Passwort davorsetze, da ich erstmal ein paar Artikel schreiben möchte, bevor diese dann in Suchmaschinen erscheinen.
Wenn ich mich nicht täusche würden die Crawler dann auf die Startseite gelangen, erkennen das ein Login benötigt wird und ohne etwas zu crawlen wieder "verschwinden". Oder?
Da allerdings setzt dann auch meine Frage an: Wenn der Googlebot dann des Öfteren da war und immer wieder festgestellt hat, dass er keinen Zugriff auf die Seite kriegt, weil ein Passwort davor ist, wird er dann irgendwann gar nicht mehr vorbeikommen und hätte das schlechte Auswirkungen für mich, wenn ich dann irgendwann die Seite für alle zugänglich mache?
Nun kam mir in den Sinn per .htaccess-Datei alle Crawler von der Seite auzuschließen indem ich ein Passwort davorsetze, da ich erstmal ein paar Artikel schreiben möchte, bevor diese dann in Suchmaschinen erscheinen.
Wenn ich mich nicht täusche würden die Crawler dann auf die Startseite gelangen, erkennen das ein Login benötigt wird und ohne etwas zu crawlen wieder "verschwinden". Oder?
Da allerdings setzt dann auch meine Frage an: Wenn der Googlebot dann des Öfteren da war und immer wieder festgestellt hat, dass er keinen Zugriff auf die Seite kriegt, weil ein Passwort davor ist, wird er dann irgendwann gar nicht mehr vorbeikommen und hätte das schlechte Auswirkungen für mich, wenn ich dann irgendwann die Seite für alle zugänglich mache?