Seite 1 von 1

Suchmaschinen bei neuer Site erstmal aussperren?

Verfasst: 06.02.2009, 16:43
von afb
Moin,

wir wollen eine neue Website (neue Domain, neuer Inhalt) online stellen und auch SEO betreiben. Wir wissen in diesem Fall aber noch nicht, welche Keywords wirklich relevant sind bzw. wie die jeweiligen Suchvolumina sind. Die üblichen Keyword-Analysetools helfen hier nur bedingt. Daher haben wir uns gedacht, wir machen folgendes:
Wir stellen die Site online, damit das Geschäft schon mal beginnen kann, sperren aber alle Suchmaschinen per robots.txt erstmal aus. Nun wird u.a. durch Adwords-Anzeigen die Seite beworben, so dass im Laufe der Zeit durch Tests mit Adwords-Anzeigen und ggf. Gesprächen mit Kunden klarer wird, auf welche Keywords wir uns konzentrieren wollen. Dann passen wir die Site entsprechend an, d.h. Title, Description, ggf. Aufteilung der Unterseiten etc. Dann erst nehmen wir die Sperre aus der robots.txt raus, damit nun die Suchmaschinen die Site so vorfinden, wie wir sie für optimal halten.

Hintergrund dieses Vorgehens ist die folgende Überlegung: Wenn die Site, so wie sie jetzt erstellt wurde, bereits von den Suchmaschinen erfasst wird, und wir später die Seiten evtl. drastisch verändern müssen (bzgl. Titles, Description etc.), dann könnte es evtl. nachteilig sind und uns die Sache schwerer als nötig machen.

Daher nun meine zwei Fragen dazu:

1. Ist unsere Überlegung sinnvoll oder ist das irrelevant (oder totaler Unsinn ;-)) ?

2. Ergeben sich durch o.g. Vorgehen Nachteile ? (z.B. dass die jeweils ausgesperrte Suchmaschine sehr lange nicht wiederkommt o.ä)

Weiß jemand etwas Hilfreiches zu sagen oder hat schon Erfahrungen in so einer Situation gesammelt?

Danke im Voraus.

Alex

Verfasst:
von
Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Verfasst: 06.02.2009, 19:17
von Beach-Baer
Moin Moin!
Weiß jemand etwas Hilfreiches zu sagen oder hat schon Erfahrungen in so einer Situation gesammelt?
Mit meinem sehr bescheidenen und lückenhaften Wissen:

Wenn euch Keywordanalysen nix bringen, die Seite bereits fertig ist und es NUR NOCH um den Content geht, würde ich die Seite für Crawler freigeben. Vieleicht habt Ihr ja bereits optimale Inhalte und ihr verschlimmbessert Diese, ohne es zu wissen. :) Eine lebendige Webseite unterliegt doch stetig Änderungen, so dass sich nachträgliche Anpassungen nicht gleich negativ auswirken. Die Seiten die nix bringen, könnt ihr nach den ersten Analysen ergänzen, anpassen, entfernen oder natürlich noch weitere Seiten einstellen und ganz ohne nachhaltige Anpassungen wird es eh nicht gehen. :oops:

Zu Frage 1. und 2. kann ich leider nix sachdienliches und verbindliches schreiben.

Gruß Kay

Verfasst: 06.02.2009, 20:54
von Fridaynite
Ganz ehrlich gesagt machen wir bei wichtigen Projekten genau das Gleiche. Zuerst müssen die Bots draussen bleiben, solange, bis alle Fehler ausgemerzt sind. Erst wenn alles hoffentlich zu 100% passt, lasse ich da irgendeinen Bot drauf. So wichtig sind die Bots nicht bei neuen Projekten. Viel wichtiger ist, dass man eine Seite fehlerfrei hat. Ist das Kind erst mal in den Brunnen gefallen, ist es viel schwieriger, es wieder raus zu bekommen.

Verfasst:
von

Verfasst: 07.02.2009, 03:53
von catcat
Das klingt doch schonmal gut!
Ich würde noch die IPs der bekannten bots mittels .htaccess aussperren, da sich manche der Jungs nicht an die robots.txt halten.

Verfasst: 07.02.2009, 11:50
von afb
Moin,

vielen Dank für Eure Antworten. Dann werden wir es so machen.

Gruß,
Alex

Verfasst: 07.02.2009, 12:27
von Vegas
Guter Plan, denn ob die Seite nun ein paar Wochen früher oder später indexiert wird, spielt keine Rolle. Wie Fridaynite schon sagte, Du sparst Dir unnötigen Mehraufwand.

Verfasst: 07.02.2009, 13:09
von seomedius
@ catcat, bleibt noch ergänzend zusagen, dass man bei der htaccess Methode unbedingt darauf achten sollte das der richtige HTTP Header zurückgegeben wird

Verfasst: 07.02.2009, 21:00
von SeriousBadMan
Performt eine Seite also besser, wenn sie von Anfang an gut war, als wenn man immer mal nachbessert? (etwa, weil Google dann meint, man betreibt etw. SEO?)

Verfasst: 08.02.2009, 11:32
von Vegas
SeriousBadMan hat geschrieben:Performt eine Seite also besser, wenn sie von Anfang an gut war, als wenn man immer mal nachbessert? (etwa, weil Google dann meint, man betreibt etw. SEO?)
Soweit würde ich nicht gehen, aber echte Fehler wie zum Beispiel einen Haufen Duplicate Content weil man anfangs nicht bedacht hat bestimmte Sachen per Noindex auszuschließen, doppelte Titel, falsche Verlinkungen, 404er, usw. können schonmal ein negatives Bild auf eine Seite werfen ehe man richtig gestartet ist. Gerade bei größeren skiptbasierten Projekten bemerkt man ja einige Kleinigkeiten die aber große Auswirkungen haben oft erst im Regelbetrieb.