Seite 1 von 1

Falsche Seiten nun im Google Index (was machen?)

Verfasst: 02.10.2013, 14:00
von nbg15
Hey alle zusammen,

folgendes. Mein CMS (xt commerce) hat leider aufgrund einer falschen Spracheinstellung alle Seiten auch doppelt nochmal angelegt mit /en/ als Zusatz...

Beispiel:

www.domain.de/de/Apple

leider auch als
www.domain.de/en/Apple

verfügbar und wurde auch schon von google indexiert....

Jetzt ist natürlich das Problem, dass ich diese Seiten gar nicht im Index haben möchte und vor allem diese Seiten auch alle keinen Mehrwert für den user haben, weil alle Seiten nahezu leer sind... Trotzdem tauchen sie im index von Googele auf (hab ich mit site:domain geprüft)

So jetzt 3 Fragen:

- Ist es denn schlimm, dass diese Seiten drinnen sind, denn um so größer eine Page ist, also an Seiten volumen um so besser oder?

- wenn ich diese Seiten jetzt mit .htaccess auf 404 leite, dann kann ich das doch auch für den gesamten Ordner /en gleichzeitig machen oder?

- und wenn jetzt erneut gecrawled wird und der Bot sieht, dass plötzlich z.b. 100 oder 200 Seiten, die es noch beim letzten crawl gab jetzt plötzlich ALLE 404 sind, ist das nicht sau schlecht :( Hab da schon wieder total Bammel davor... wie sich das auswirken wird...

Als Info:

die Domain lautet: www.r-tech24.de

im Index stehen alle Hier bei https://www.google.de/search?q=site%3Ar ... ch24.de%2F:

und per Sitemap hab ich bei den Webmaster Tools eigentlich immer die gleiche Anzahl nämlich so ca. 700 Seiten eingereicht

ach ja und im index sind jetzt derzeit 140 Seiten mit

r-tech24.de/en

Was sagt ihr zu diesem Fall, habt Ihr da bereits Erfahrungen damit?

Danke vorab...

Beste Grüße

Rickey

Verfasst:
von

Verfasst: 02.10.2013, 14:35
von seojoe
Hi Rickey,
Ist es denn schlimm, dass diese Seiten drinnen sind, denn um so größer eine Page ist, also an Seiten volumen um so besser oder?
Du schreibst selbst, dass diese Seiten keinen Mehrwert haben. Die Seiten verschwenden unnötig Crawlerkapazität.

Am besten du entfernst die unerwünschten indexierten URLS über das Google Webmaster Tool mit "URLs entfernen". Vorher den Fehler beheben bzw. die Seiten mit robots.txt ausschließen.

Die unerwünschten Seiten bekommst du so innerhalb weniger Minuten aus dem Index.

Viele Grüße
Johannes

Verfasst: 02.10.2013, 14:54
von nbg15
seojoe hat geschrieben:Hi Rickey,
Ist es denn schlimm, dass diese Seiten drinnen sind, denn um so größer eine Page ist, also an Seiten volumen um so besser oder?
Du schreibst selbst, dass diese Seiten keinen Mehrwert haben. Die Seiten verschwenden unnötig Crawlerkapazität.

Am besten du entfernst die unerwünschten indexierten URLS über das Google Webmaster Tool mit "URLs entfernen". Vorher den Fehler beheben bzw. die Seiten mit robots.txt ausschließen.

Die unerwünschten Seiten bekommst du so innerhalb weniger Minuten aus dem Index.

Viele Grüße
Johannes

Hey Johannes,

danke für die schnelle Antwort

>> Könntest du mir noch sagen, ob ich das Ausschließen der Seiten auch Ordner bezogen über die .htaccess durchführen kann oder ob ich jede einzelne Seite behandeln muss

und

>> meinst du, dass sich dadurch Rankingveränderungen feststellen lassen, sowohl positiv als auch negativ???

!!! Danke sehr !!!

Verfasst: 02.10.2013, 15:05
von seojoe
Du kannst einfach über die robots.txt den ganzen Ordner blocken:

Disallow: /en/

Tendenziell wirkt sich das natürlich positiv aus. Wobei bei deinen bisherigen Rankings du wohl keinen großen Unterschied feststellen wirst.

Viele Grüße
Johannes