Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Suchmaschinen bei neuer Site erstmal aussperren?

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
afb
PostRank 4
PostRank 4
Beiträge: 116
Registriert: 12.12.2005, 15:30

Beitrag von afb » 06.02.2009, 16:43

Moin,

wir wollen eine neue Website (neue Domain, neuer Inhalt) online stellen und auch SEO betreiben. Wir wissen in diesem Fall aber noch nicht, welche Keywords wirklich relevant sind bzw. wie die jeweiligen Suchvolumina sind. Die üblichen Keyword-Analysetools helfen hier nur bedingt. Daher haben wir uns gedacht, wir machen folgendes:
Wir stellen die Site online, damit das Geschäft schon mal beginnen kann, sperren aber alle Suchmaschinen per robots.txt erstmal aus. Nun wird u.a. durch Adwords-Anzeigen die Seite beworben, so dass im Laufe der Zeit durch Tests mit Adwords-Anzeigen und ggf. Gesprächen mit Kunden klarer wird, auf welche Keywords wir uns konzentrieren wollen. Dann passen wir die Site entsprechend an, d.h. Title, Description, ggf. Aufteilung der Unterseiten etc. Dann erst nehmen wir die Sperre aus der robots.txt raus, damit nun die Suchmaschinen die Site so vorfinden, wie wir sie für optimal halten.

Hintergrund dieses Vorgehens ist die folgende Überlegung: Wenn die Site, so wie sie jetzt erstellt wurde, bereits von den Suchmaschinen erfasst wird, und wir später die Seiten evtl. drastisch verändern müssen (bzgl. Titles, Description etc.), dann könnte es evtl. nachteilig sind und uns die Sache schwerer als nötig machen.

Daher nun meine zwei Fragen dazu:

1. Ist unsere Überlegung sinnvoll oder ist das irrelevant (oder totaler Unsinn ;-)) ?

2. Ergeben sich durch o.g. Vorgehen Nachteile ? (z.B. dass die jeweils ausgesperrte Suchmaschine sehr lange nicht wiederkommt o.ä)

Weiß jemand etwas Hilfreiches zu sagen oder hat schon Erfahrungen in so einer Situation gesammelt?

Danke im Voraus.

Alex

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Beach-Baer
PostRank 5
PostRank 5
Beiträge: 214
Registriert: 09.05.2006, 13:17
Wohnort: Hamburg

Beitrag von Beach-Baer » 06.02.2009, 19:17

Moin Moin!
Weiß jemand etwas Hilfreiches zu sagen oder hat schon Erfahrungen in so einer Situation gesammelt?
Mit meinem sehr bescheidenen und lückenhaften Wissen:

Wenn euch Keywordanalysen nix bringen, die Seite bereits fertig ist und es NUR NOCH um den Content geht, würde ich die Seite für Crawler freigeben. Vieleicht habt Ihr ja bereits optimale Inhalte und ihr verschlimmbessert Diese, ohne es zu wissen. :) Eine lebendige Webseite unterliegt doch stetig Änderungen, so dass sich nachträgliche Anpassungen nicht gleich negativ auswirken. Die Seiten die nix bringen, könnt ihr nach den ersten Analysen ergänzen, anpassen, entfernen oder natürlich noch weitere Seiten einstellen und ganz ohne nachhaltige Anpassungen wird es eh nicht gehen. :oops:

Zu Frage 1. und 2. kann ich leider nix sachdienliches und verbindliches schreiben.

Gruß Kay

Fridaynite
PostRank 10
PostRank 10
Beiträge: 2983
Registriert: 07.01.2004, 09:10

Beitrag von Fridaynite » 06.02.2009, 20:54

Ganz ehrlich gesagt machen wir bei wichtigen Projekten genau das Gleiche. Zuerst müssen die Bots draussen bleiben, solange, bis alle Fehler ausgemerzt sind. Erst wenn alles hoffentlich zu 100% passt, lasse ich da irgendeinen Bot drauf. So wichtig sind die Bots nicht bei neuen Projekten. Viel wichtiger ist, dass man eine Seite fehlerfrei hat. Ist das Kind erst mal in den Brunnen gefallen, ist es viel schwieriger, es wieder raus zu bekommen.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


catcat
PostRank 10
PostRank 10
Beiträge: 10292
Registriert: 02.08.2006, 13:21
Wohnort: Litauen

Beitrag von catcat » 07.02.2009, 03:53

Das klingt doch schonmal gut!
Ich würde noch die IPs der bekannten bots mittels .htaccess aussperren, da sich manche der Jungs nicht an die robots.txt halten.

afb
PostRank 4
PostRank 4
Beiträge: 116
Registriert: 12.12.2005, 15:30

Beitrag von afb » 07.02.2009, 11:50

Moin,

vielen Dank für Eure Antworten. Dann werden wir es so machen.

Gruß,
Alex

Vegas
PostRank 10
PostRank 10
Beiträge: 5063
Registriert: 27.10.2007, 13:07

Beitrag von Vegas » 07.02.2009, 12:27

Guter Plan, denn ob die Seite nun ein paar Wochen früher oder später indexiert wird, spielt keine Rolle. Wie Fridaynite schon sagte, Du sparst Dir unnötigen Mehraufwand.
Forward Up >> Suchmaschinenoptimierung >> SEO Notaufnahme >> SEO Audits >> SEM >> ORM

seomedius
PostRank 4
PostRank 4
Beiträge: 153
Registriert: 26.08.2008, 15:58

Beitrag von seomedius » 07.02.2009, 13:09

@ catcat, bleibt noch ergänzend zusagen, dass man bei der htaccess Methode unbedingt darauf achten sollte das der richtige HTTP Header zurückgegeben wird

SeriousBadMan
PostRank 10
PostRank 10
Beiträge: 4005
Registriert: 16.06.2008, 22:26
Wohnort: Welt

Beitrag von SeriousBadMan » 07.02.2009, 21:00

Performt eine Seite also besser, wenn sie von Anfang an gut war, als wenn man immer mal nachbessert? (etwa, weil Google dann meint, man betreibt etw. SEO?)

Vegas
PostRank 10
PostRank 10
Beiträge: 5063
Registriert: 27.10.2007, 13:07

Beitrag von Vegas » 08.02.2009, 11:32

SeriousBadMan hat geschrieben:Performt eine Seite also besser, wenn sie von Anfang an gut war, als wenn man immer mal nachbessert? (etwa, weil Google dann meint, man betreibt etw. SEO?)
Soweit würde ich nicht gehen, aber echte Fehler wie zum Beispiel einen Haufen Duplicate Content weil man anfangs nicht bedacht hat bestimmte Sachen per Noindex auszuschließen, doppelte Titel, falsche Verlinkungen, 404er, usw. können schonmal ein negatives Bild auf eine Seite werfen ehe man richtig gestartet ist. Gerade bei größeren skiptbasierten Projekten bemerkt man ja einige Kleinigkeiten die aber große Auswirkungen haben oft erst im Regelbetrieb.
Forward Up >> Suchmaschinenoptimierung >> SEO Notaufnahme >> SEO Audits >> SEM >> ORM

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag