Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

301 auf neue Datei - wie alte ausschliessen

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
Dembarko
PostRank 9
PostRank 9
Beiträge: 1074
Registriert: 19.07.2006, 13:11
Wohnort: NDhausen

Beitrag von Dembarko » 04.09.2007, 15:35

Hi,

nach einem Relaunch sind einige Seiten weg gefallen, jedoch weiterhin in
den Serps gelistet. Den Grossteil leite ich per 301 um, wie kann ich jedoch verhindern, dass diese Seiten nicht weiter gespidert werden?

In der sitemap sind sie nicht mehr aufgeführt und wenn ich sie per robot.txt aussperre kann die Weiterleitung ja net funzen, oder hab ich nen Denkfehler?

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

luzie
PostRank 10
PostRank 10
Beiträge: 4228
Registriert: 12.07.2007, 13:43
Wohnort: Hannover, Linden-Nord

Beitrag von luzie » 04.09.2007, 17:22

>>> nach einem Relaunch sind einige Seiten weg gefallen,
>>> jedoch weiterhin in den Serps gelistet.

nur noch eine zeitlang, nur abwarten, die sind bald draussen.

>>> leite ich per 301 um, wie kann ich jedoch verhindern, dass diese
>>> Seiten nicht weiter gespidert werden?

du meinst vermutl. "wie kann ich verhindern dass die seiten weiter gespidert werden" ... und auch da hilft nur abwarten. google ist nun mal seeehr lahm (bei der grösse des index' bis zu gewissem grad sogar verständlich)
Bilduzie - [url=httpss://plus.google.com/+HerbertSulzer/about]Google Official Bionic Top Contributor on Google Webmaster Central[/url]

MW
PostRank 7
PostRank 7
Beiträge: 651
Registriert: 14.03.2006, 10:09
Wohnort: München

Beitrag von MW » 05.09.2007, 09:12

Wichtig ist auch, alle Links auf die neuen Seiten zu setzen.
Wenn alle alten Seiten sauber per 301 umgeleitet werden, dann fliegen
diese automatisch aus dem Index und sollten die Power von den alten
Seiten bekommen.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Dembarko
PostRank 9
PostRank 9
Beiträge: 1074
Registriert: 19.07.2006, 13:11
Wohnort: NDhausen

Beitrag von Dembarko » 05.09.2007, 09:30

^^ Ok, vielen Dank soweit hab ich das auch schon gewusst ;)

Die Frage ist jetzt ...

- durch Eintrag in der robot.txt werden diese "alten" Seiten vom Spider ausgeschlossen, richtig?
- die "alten" Seiten haben jedoch eine 301 auf die neuen Seiten
- wie "funktioniert" nun das Ganze ;)

WilliWusel
PostRank 9
PostRank 9
Beiträge: 1257
Registriert: 21.08.2006, 14:55

Beitrag von WilliWusel » 05.09.2007, 09:36

Dembarko hat geschrieben:- durch Eintrag in der robot.txt werden diese "alten" Seiten vom Spider ausgeschlossen, richtig?
Richtig, aber da sie nicht mehr existieren, würden sie eh nicht mehr gespidert. Der Eintrag ist daher überflüssig.

Einfach noch etwas abwarten... :wink:

Dembarko
PostRank 9
PostRank 9
Beiträge: 1074
Registriert: 19.07.2006, 13:11
Wohnort: NDhausen

Beitrag von Dembarko » 05.09.2007, 10:18

Nun, bei Abfrage von KW und Kombie habe ich noch ca. 2-4 Seiten unter den ersten 10 Treffern, welche ich nun per 301 weiterleiten muss, hoffe alles klappt
und dass die neuen ebenso gut angenommen werden, vielen Dank an alle ... ;)

Fantomas
PostRank 4
PostRank 4
Beiträge: 187
Registriert: 18.09.2005, 17:00
Wohnort: Berlin

Beitrag von Fantomas » 05.09.2007, 11:57

WilliWusel hat geschrieben:
Dembarko hat geschrieben:- durch Eintrag in der robot.txt werden diese "alten" Seiten vom Spider ausgeschlossen, richtig?
Richtig, aber da sie nicht mehr existieren, würden sie eh nicht mehr gespidert. Der Eintrag ist daher überflüssig.

Einfach noch etwas abwarten... :wink:
Warum in der robots.txt sperren?
Dann findet google doch den 301 nicht mehr und alles war umsonst?!?
If only you and dead people can read hex,
how many people can read hex then?

Frische Backlinks?

Dembarko
PostRank 9
PostRank 9
Beiträge: 1074
Registriert: 19.07.2006, 13:11
Wohnort: NDhausen

Beitrag von Dembarko » 05.09.2007, 12:05

Fantomas hat geschrieben: Warum in der robots.txt sperren?
Dann findet google doch den 301 nicht mehr und alles war umsonst?!?
Eben, dies ist ja die Zwickmühle ;)

Wie also alte Seiten nicht mehr indizieren lassen jedoch eine
saubere Weiterleitung gewährleisten? Ein Paradoxon ;)

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag