Seite 1 von 1
301 auf neue Datei - wie alte ausschliessen
Verfasst: 04.09.2007, 15:35
von Dembarko
Hi,
nach einem Relaunch sind einige Seiten weg gefallen, jedoch weiterhin in
den Serps gelistet. Den Grossteil leite ich per 301 um, wie kann ich jedoch verhindern, dass diese Seiten nicht weiter gespidert werden?
In der sitemap sind sie nicht mehr aufgeführt und wenn ich sie per robot.txt aussperre kann die Weiterleitung ja net funzen, oder hab ich nen Denkfehler?
Verfasst:
von
Hochwertiger Linkaufbau bei ABAKUS:
- Google-konformer Linkaufbau
- nachhaltiges Ranking
- Linkbuilding Angebote zu fairen Preisen
- internationale Backlinks
Wir bieten
Beratung und
Umsetzung.
Jetzt anfragen:
0511 / 300325-0
Verfasst: 04.09.2007, 17:22
von luzie
>>> nach einem Relaunch sind einige Seiten weg gefallen,
>>> jedoch weiterhin in den Serps gelistet.
nur noch eine zeitlang, nur abwarten, die sind bald draussen.
>>> leite ich per 301 um, wie kann ich jedoch verhindern, dass diese
>>> Seiten nicht weiter gespidert werden?
du meinst vermutl. "wie kann ich verhindern dass die seiten weiter gespidert werden" ... und auch da hilft nur abwarten. google ist nun mal seeehr lahm (bei der grösse des index' bis zu gewissem grad sogar verständlich)
Verfasst: 05.09.2007, 09:12
von MW
Wichtig ist auch, alle Links auf die neuen Seiten zu setzen.
Wenn alle alten Seiten sauber per 301 umgeleitet werden, dann fliegen
diese automatisch aus dem Index und sollten die Power von den alten
Seiten bekommen.
Verfasst:
von
SEO Consulting bei
ABAKUS Internet Marketing Erfahrung seit 2002
- persönliche Betreuung
- individuelle Beratung
- kompetente Umsetzung
Jetzt anfragen:
0511 / 300325-0.
Verfasst: 05.09.2007, 09:30
von Dembarko
^^ Ok, vielen Dank soweit hab ich das auch schon gewusst
Die Frage ist jetzt ...
- durch Eintrag in der robot.txt werden diese "alten" Seiten vom Spider ausgeschlossen, richtig?
- die "alten" Seiten haben jedoch eine 301 auf die neuen Seiten
- wie "funktioniert" nun das Ganze

Verfasst: 05.09.2007, 09:36
von WilliWusel
Dembarko hat geschrieben:- durch Eintrag in der robot.txt werden diese "alten" Seiten vom Spider ausgeschlossen, richtig?
Richtig, aber da sie nicht mehr existieren, würden sie eh nicht mehr gespidert. Der Eintrag ist daher überflüssig.
Einfach noch etwas abwarten...

Verfasst: 05.09.2007, 10:18
von Dembarko
Nun, bei Abfrage von KW und Kombie habe ich noch ca. 2-4 Seiten unter den ersten 10 Treffern, welche ich nun per 301 weiterleiten muss, hoffe alles klappt
und dass die neuen ebenso gut angenommen werden, vielen Dank an alle ...

Verfasst: 05.09.2007, 11:57
von Fantomas
WilliWusel hat geschrieben:Dembarko hat geschrieben:- durch Eintrag in der robot.txt werden diese "alten" Seiten vom Spider ausgeschlossen, richtig?
Richtig, aber da sie nicht mehr existieren, würden sie eh nicht mehr gespidert. Der Eintrag ist daher überflüssig.
Einfach noch etwas abwarten...

Warum in der robots.txt sperren?
Dann findet google doch den 301 nicht mehr und alles war umsonst?!?
Verfasst: 05.09.2007, 12:05
von Dembarko
Fantomas hat geschrieben:
Warum in der robots.txt sperren?
Dann findet google doch den 301 nicht mehr und alles war umsonst?!?
Eben, dies ist ja die Zwickmühle
Wie also alte Seiten nicht mehr indizieren lassen jedoch eine
saubere Weiterleitung gewährleisten? Ein Paradoxon
