Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Irrtümlich per 301 weitergeleitet - wie den Schaden beheben?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
detrius
PostRank 5
PostRank 5
Beiträge: 235
Registriert: 09.08.2004, 07:50

Beitrag von detrius » 14.07.2005, 14:24

Hallo an Alle,

mir ist letzte Woche etwas extrem dummes passiert. Habe bei der Aktualisierung eines Unterordners aus Versehen eine htaccess Datei mit einer 301 Weiterleitung online gestellt.

Wegen eines Termins nicht alles zu 100% kontrolliert und dann den Fehler erst nach 4 Tagen entdeckt.

Alle Seiten aus dem Unterordner waren unter den TopTen.
Google hat alle entsprechende Seiten (14 Stk.) abgewertet. Alle Seiten sind noch im index (beste Position Platz 34, der Rest wesentlich weiter hinten), allerdings kilometerweit von den TopTen entfernt.

Habe die htaccess gelöscht, den entsprechenden Unterordner aktualisiert, zusätzlich 5 Links auf den Unterordner (extern) geschaltet und die interne Linkpop behutsam erhöht. Zusätzlich habe ich eine robots.txt angelegt, die explizit zum Spidern des betroffenen Ordners "aufordert" (es gab vorher keine robots.txt).

Nun die Frage: Was würdet Ihr tun, um den entstandenen Schaden möglichst schnell zu beheben? Habe ich eventuell zuviel getan (interne Linkpop, 5 Links von außen)?

Man kann ja bei Abstrafung einer Seite (wenn gespammt wurde) eine Wiederaufnahme (Google) beantragen.
Gibt’s so was ähnliches für meine Fall?

Was denkt Ihr, wie verhält sich der Bot? Zuerst bekommt er die Info "vergiss die Seiten mal schnell" und dann 4 Tage später soll er wieder alles fressen? Tut er´s oder zickt er jetzt rum. Konnte seit der Korrektur keine Verbesserung in den Positionen feststellen.

gruß
detrius

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Gurgelboot
PostRank 8
PostRank 8
Beiträge: 769
Registriert: 22.01.2005, 02:23

Beitrag von Gurgelboot » 14.07.2005, 14:32

Habe die htaccess gelöscht, den entsprechenden Unterordner aktualisiert, zusätzlich 5 Links auf den Unterordner (extern) geschaltet und die interne Linkpop behutsam erhöht. Zusätzlich habe ich eine robots.txt angelegt, die explizit zum Spidern des betroffenen Ordners "aufordert" (es gab vorher keine robots.txt).
Ich hätte erstmal nach dem löschen der .htaccess ein bisschen abgewartet bevor ich meine Kavallerie (externe Links) ausrücken lasse, ansonsten kann man nicht viel mehr machen.

Hatte sowas aber noch nicht bis jetzt...

Wie fordert denn eine robots.txt zum Spidern auf?

Grüsse :D

bydlo
PostRank 9
PostRank 9
Beiträge: 2209
Registriert: 11.12.2004, 01:03
Wohnort: Berlin

Beitrag von bydlo » 14.07.2005, 14:35

detrius hat geschrieben:Was denkt Ihr, wie verhält sich der Bot? Zuerst bekommt er die Info "vergiss die Seiten mal schnell" und dann 4 Tage später soll er wieder alles fressen? Tut er´s oder zickt er jetzt rum. Konnte seit der Korrektur keine Verbesserung in den Positionen feststellen.

gruß
detrius
ich glaube er tuts.
ich hatte letztens folgenden fall:
absichtlich einen 301 gesetzt für eine ganze domain.
nach 2 wochen waren die seiten alle immer noch im index.
also hab ich den 301 entfernt-die inhalte wieder aufgespielt und in alle seiten ein NOINDEX eingefügt.
1 tag später war der bot wieder da,hat fleissig gespidert und 2 tage später war die hälfte der seiten raus aus dem index.
und täglich werden es weniger.
gruss axel