Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Suchmaschinen bei neuer Site erstmal aussperren?

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
afb
PostRank 4
PostRank 4
Beiträge: 116
Registriert: 12.12.2005, 15:30

Beitrag von afb » 06.02.2009, 16:43

Moin,

wir wollen eine neue Website (neue Domain, neuer Inhalt) online stellen und auch SEO betreiben. Wir wissen in diesem Fall aber noch nicht, welche Keywords wirklich relevant sind bzw. wie die jeweiligen Suchvolumina sind. Die üblichen Keyword-Analysetools helfen hier nur bedingt. Daher haben wir uns gedacht, wir machen folgendes:
Wir stellen die Site online, damit das Geschäft schon mal beginnen kann, sperren aber alle Suchmaschinen per robots.txt erstmal aus. Nun wird u.a. durch Adwords-Anzeigen die Seite beworben, so dass im Laufe der Zeit durch Tests mit Adwords-Anzeigen und ggf. Gesprächen mit Kunden klarer wird, auf welche Keywords wir uns konzentrieren wollen. Dann passen wir die Site entsprechend an, d.h. Title, Description, ggf. Aufteilung der Unterseiten etc. Dann erst nehmen wir die Sperre aus der robots.txt raus, damit nun die Suchmaschinen die Site so vorfinden, wie wir sie für optimal halten.

Hintergrund dieses Vorgehens ist die folgende Überlegung: Wenn die Site, so wie sie jetzt erstellt wurde, bereits von den Suchmaschinen erfasst wird, und wir später die Seiten evtl. drastisch verändern müssen (bzgl. Titles, Description etc.), dann könnte es evtl. nachteilig sind und uns die Sache schwerer als nötig machen.

Daher nun meine zwei Fragen dazu:

1. Ist unsere Überlegung sinnvoll oder ist das irrelevant (oder totaler Unsinn ;-)) ?

2. Ergeben sich durch o.g. Vorgehen Nachteile ? (z.B. dass die jeweils ausgesperrte Suchmaschine sehr lange nicht wiederkommt o.ä)

Weiß jemand etwas Hilfreiches zu sagen oder hat schon Erfahrungen in so einer Situation gesammelt?

Danke im Voraus.

Alex

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Beach-Baer
PostRank 5
PostRank 5
Beiträge: 214
Registriert: 09.05.2006, 13:17
Wohnort: Hamburg

Beitrag von Beach-Baer » 06.02.2009, 19:17

Moin Moin!
Weiß jemand etwas Hilfreiches zu sagen oder hat schon Erfahrungen in so einer Situation gesammelt?
Mit meinem sehr bescheidenen und lückenhaften Wissen:

Wenn euch Keywordanalysen nix bringen, die Seite bereits fertig ist und es NUR NOCH um den Content geht, würde ich die Seite für Crawler freigeben. Vieleicht habt Ihr ja bereits optimale Inhalte und ihr verschlimmbessert Diese, ohne es zu wissen. :) Eine lebendige Webseite unterliegt doch stetig Änderungen, so dass sich nachträgliche Anpassungen nicht gleich negativ auswirken. Die Seiten die nix bringen, könnt ihr nach den ersten Analysen ergänzen, anpassen, entfernen oder natürlich noch weitere Seiten einstellen und ganz ohne nachhaltige Anpassungen wird es eh nicht gehen. :oops:

Zu Frage 1. und 2. kann ich leider nix sachdienliches und verbindliches schreiben.

Gruß Kay

Fridaynite
PostRank 10
PostRank 10
Beiträge: 2983
Registriert: 07.01.2004, 09:10

Beitrag von Fridaynite » 06.02.2009, 20:54

Ganz ehrlich gesagt machen wir bei wichtigen Projekten genau das Gleiche. Zuerst müssen die Bots draussen bleiben, solange, bis alle Fehler ausgemerzt sind. Erst wenn alles hoffentlich zu 100% passt, lasse ich da irgendeinen Bot drauf. So wichtig sind die Bots nicht bei neuen Projekten. Viel wichtiger ist, dass man eine Seite fehlerfrei hat. Ist das Kind erst mal in den Brunnen gefallen, ist es viel schwieriger, es wieder raus zu bekommen.