DC Gefahr? Kann und soll ich die Seiten löschen?
Verfasst: 04.09.2005, 11:10
Hallo, ich (neuling) brächte mal eure Hilfe:
Folgendes Problem: Ich habe meine dynamischen Seiten mit mod_rewrite verändert und auch dynamische Titel eingefügt:
Bei einer Siteabfrage: site:www.wohnungsboerse.net muss ich nun leider feststellen, daß immer mehr Seiten "aufgefressen werden", also man hat nur noch ein Gerüst dorten stehen bei der siteabfrage. Meistens sind das Links zu Mietobjekten, die nicht mehr existieren in der Datenbak und somit auch der dynamische Titel und die dynamische Description nicht mehr funktionieren. Zudem kommt, daß leider die Titel und UrLS ähnlich sind, so daß Google daraus einen Doppelten Content sehen könnte, vor allem aber bei den Seiten, z.B. https://www.wohnungsboerse.net/Vermietu ... 87447.html - das Objekt nicht mehr existiert in der Datenbank. Nun hatte ich damals alle Seiten mit der google sitemap reingeladen, vor 2 Tagen habe ich eine neue gemacht (bei uns existieren die Mietangebote in der DB größtenteils maximal 10 Tage) um die Seiten zu aktualisieren. Die neuen Seiten sind nun auch im Index, nur dummerweise die alten auch noch und nun sind es schon doppeltsoviele Seiten... Wie bekomme ich die alten Seiten, also vor allem die Seiten wo kein Objekt mehr existiiert nur wieder raus aus dem Index?
Oder sollte ich besser für die Zukunft besser alle Seiten, die dynamisch erstllt werden generell aus dem Index ausschliessen? Was ich aber schade finde, denn die Seiten (eine würde ja genügen...) sind hilfreich für meine Keywörter. Oder sollte ich die Seiten bzw. die dynamischen Titel und URLS nochmals überarbeiten, so daß sie sich weniger ähnlich sind?
Ich weiss 1000 Fragen, aber ich weiss hier einfach nicht, was die richtige Lösung ist.
Dani
Folgendes Problem: Ich habe meine dynamischen Seiten mit mod_rewrite verändert und auch dynamische Titel eingefügt:
Bei einer Siteabfrage: site:www.wohnungsboerse.net muss ich nun leider feststellen, daß immer mehr Seiten "aufgefressen werden", also man hat nur noch ein Gerüst dorten stehen bei der siteabfrage. Meistens sind das Links zu Mietobjekten, die nicht mehr existieren in der Datenbak und somit auch der dynamische Titel und die dynamische Description nicht mehr funktionieren. Zudem kommt, daß leider die Titel und UrLS ähnlich sind, so daß Google daraus einen Doppelten Content sehen könnte, vor allem aber bei den Seiten, z.B. https://www.wohnungsboerse.net/Vermietu ... 87447.html - das Objekt nicht mehr existiert in der Datenbank. Nun hatte ich damals alle Seiten mit der google sitemap reingeladen, vor 2 Tagen habe ich eine neue gemacht (bei uns existieren die Mietangebote in der DB größtenteils maximal 10 Tage) um die Seiten zu aktualisieren. Die neuen Seiten sind nun auch im Index, nur dummerweise die alten auch noch und nun sind es schon doppeltsoviele Seiten... Wie bekomme ich die alten Seiten, also vor allem die Seiten wo kein Objekt mehr existiiert nur wieder raus aus dem Index?
Oder sollte ich besser für die Zukunft besser alle Seiten, die dynamisch erstllt werden generell aus dem Index ausschliessen? Was ich aber schade finde, denn die Seiten (eine würde ja genügen...) sind hilfreich für meine Keywörter. Oder sollte ich die Seiten bzw. die dynamischen Titel und URLS nochmals überarbeiten, so daß sie sich weniger ähnlich sind?
Ich weiss 1000 Fragen, aber ich weiss hier einfach nicht, was die richtige Lösung ist.
Dani