Seite 1 von 1
nichtmehr existente uraltseiten wieder im index
Verfasst: 23.06.2005, 15:24
von bydlo
moin moin,
hab grade folgendes problem.
seit ca 6 wochen find ich bei einer siteabfrage plötzlich wieder seiten im index die es schon seit über einem jahr nicht mehr auf dem server gibt.
hatte sie damals per meta"NOINDEX" aus dem index entfernt.
das alleine ist mir schon schleierhaft.
jetzt hab ich vor 2 wochen per htaccess für alle diese dateien und ordner einen 410er gesetzt.
beim aufruf krieg ich den auch korrekt geliefert allerdings scheint google das nicht zu verstehen denn die seiten sind immer noch drin obwohl die site täglich gespidert wird.
hat mal jemand einen weisen rat?
macht es sinn zusätzlich zur htacces noch die robots mit nem disallow für die dateien zu definieren für die ich ja schon nen 410 habe.
oder handel ich mir damit nur noch grössere probleme ein?
gruss axel
Verfasst:
von
SEO Consulting bei
ABAKUS Internet Marketing Erfahrung seit 2002
- persönliche Betreuung
- individuelle Beratung
- kompetente Umsetzung
Jetzt anfragen:
0511 / 300325-0.
nichtmehr existente uraltseiten wieder im index
Verfasst: 23.06.2005, 17:25
von axelm
Ich würde eher einen 404 ausliefern, (der 410 ist kaum bekannt). 301 wenn der Inhalt verschoben wurde.
Dann würde ich alle toten URLs in der robots.txt eintragen und über
https://services.google.com:8882/urlcon ... tcmd=login
die URL bzw. die Robots.txt an google übermitteln, dann sind sie meistens binnen 24 Std. raus
nichtmehr existente uraltseiten wieder im index
Verfasst: 23.06.2005, 18:24
von tester
in aller Regel ist es ja so, dass man lediglich alte Seiten durch neue ersetzt - das blosse Entfernen der Seiten wird ja eher selten vorkommen - daher:
301 - Redirect Permanent - funktioniert innerhalb kürzester Zeit und obendrein geht dir der Traffic nicht verloren...
nichtmehr existente uraltseiten wieder im index
Verfasst: 23.06.2005, 19:38
von Chris2005
Auf einigen DC ist wieder z.T. uralter Datenbestand im Cache (November 2004 etc.) Hoffentlich ist das nur einer vorübergehende Erscheinung...
Verfasst: 23.06.2005, 20:48
von bydlo
@all
ich kanns mir eigentlich auch nur mit dem modell von chris 2005 (alte datenbestände) erklären denn der sachverhalt ist folgender.
die domain wurde vor ca 1 jahr gekauft-ohne inhalt freilich.
dann neue inhalte draufgespielt.
und die seiten die jetzt zusätzlich im index sind sind die der alten domain!!!
die 301variante hatte ich nach der übernahme der domain auch erfolgreich angewendet.
hatte dann drei monate nachdem die alten seiten raus waren die einträge aus der htaccess entfernt (waren ja immerhin ca140 zeilen).
und nun sind sie eben wieder da.
410 gone? nicht bekannt?
na dann werd ichs nochmal mit der robots probieren.
bloss den entsprechenden auszug aus der robots oder das ganze gute stück?
hab mich immer davor gescheut weil ich bei google irgendwas gelesen hatte von 90 tagen sperre.
aber das bezieht sich doch wohl nur auf die disallows. oder?
(vorsicht ist die mutter der porzellankiste)
vielen dank & gruss axel
nichtmehr existente uraltseiten wieder im index
Verfasst: 23.06.2005, 20:54
von Chris2005
Die Sache mit der URL Console funktioniert. Man muss bloss höllisch aufpassen, was man da reinschreibt (Die Disallow-Regeln wirken z.T. als Platzhalter). Sind die Seiten einmal draussen, kommen sie auch für den "gesperrten" Zeitraum auch nicht wieder in den Index. Es gibt Leute, die Ihre Domain damit gekickt haben. Wäre etwas ungünstig
Es sind auch nicht 90 Tage, sondern 6 Monate, die Google die Seiten aus dem Index entfernt (bzw. nicht anzeigt). Da gab es mal ein Post von Googleguy auf WMW. Habe ich im Moment nicht griffbereit. Er meinte, dass die Webmaster-Seiten von Google überarbeitet werden müssen und das der eigentliche Zeitraum eben 6 Monate ist.
Re: nichtmehr existente uraltseiten wieder im index
Verfasst: 23.06.2005, 20:59
von bydlo
Chris2005 hat geschrieben:(Die Disallow-Regeln wirken z.T. als Platzhalter). .
hi chris,
das versteh ich jetzt nicht.
und die komplette robots oder bloß den betreffenden teil?
gruss axel
nichtmehr existente uraltseiten wieder im index
Verfasst: 23.06.2005, 21:04
von Chris2005
z.B.:
Code: Alles auswählen
User-agent: Googlebot
Disallow: /viewtopic
Disallow: /search
etc.
Damit werden alle Dateien gesperrt, die im Root liegen und mit viewtopic und search
beginnen. Das meinte ich mit "Platzhalter", d.h. mit einer Anweisung kannst Du hunderte von Dateien sperren.
Wenn man da unvorsichtig ist, und irgendwo eine Unsauberkeit drin hat, dann kann es ungewollte Folgen haben.
Edit: Korrektur robots.txt (Space eingefügt)
Verfasst: 23.06.2005, 21:18
von bydlo
OK-alles klar.
na dann werd ich mal schön vorsichtig sein.
vielen dank
gruss axel