Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Erst alle Crawler ausschließen, dann alle erlauben?

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
pltfu
PostRank 1
PostRank 1
Beiträge: 8
Registriert: 11.08.2013, 20:20

Beitrag von pltfu » 17.08.2013, 14:54

Ich bin verwirrt. Ich habe eine Idee für einen Blog und die Domain dazu habe ich jetzt auch.

Nun kam mir in den Sinn per .htaccess-Datei alle Crawler von der Seite auzuschließen indem ich ein Passwort davorsetze, da ich erstmal ein paar Artikel schreiben möchte, bevor diese dann in Suchmaschinen erscheinen.

Wenn ich mich nicht täusche würden die Crawler dann auf die Startseite gelangen, erkennen das ein Login benötigt wird und ohne etwas zu crawlen wieder "verschwinden". Oder?

Da allerdings setzt dann auch meine Frage an: Wenn der Googlebot dann des Öfteren da war und immer wieder festgestellt hat, dass er keinen Zugriff auf die Seite kriegt, weil ein Passwort davor ist, wird er dann irgendwann gar nicht mehr vorbeikommen und hätte das schlechte Auswirkungen für mich, wenn ich dann irgendwann die Seite für alle zugänglich mache?