Beitrag
von revilo » 20.06.2007, 11:08
Hallo,
ich versuch´s noch einmal.
1. Seiten, die Du per korrekter robots.txt von der Indexierung ausgeschlossen hast, befinden sich, aus welchem Grund auch immer, im Index.
2. Du möchtest die Seiten entfernen und verhindern, dass sie auch in Zukunft nicht aufgenommen werden.
3. Mit dem 410er in der .htaccess signalisierst Du, dass die Seiten nicht (mehr) für den Bot bestimmt sind.
4. Mit den rel="nofollow" Links auf der index.html verhinderst Du, dass sie zukünftig überhaupt gefunden werden.
5. Mit dem noindex auf jeder gewünscht nicht aufzunehmenden Seite in den Metas, bleiben diese Seiten auf jeden Fall draussen.
6. Wenn sich die Einzelseiten gegenseitig verlinken und die Linkverfolgung auf diesen Seiten keine Bedeutung für den Bot haben soll, kann das noindex in den Metas um das nofollow erweitert werden.
LG O