URLs löschen, robots.txt
Verfasst: 23.04.2012, 14:19
Hallo zusammen
Mein Programmierer musste gewisse URL Paramter ändern. Nun habe ich über google webmastertools festegestellt, dass ich sehr viele Crawling Fehler habe. Die meisten sind 500er Fehler. Problem ist, dass mein Programmierer sagt, dass er momentan keine 301er Umleitung platzieren kann, da ca. 100'000 Links betroffen sind. Er meint, dass google dies von selber richten wird. Nun habe ich gelesen, dass ich mittels einer google.txt datei, diese Seiten auch löschen kann.
Habe das nun so gelöst:
User-agent: *
Disallow: /forum/apfel-f40/
Disallow: /forum/birne-f62/
Disallow: /forum/kirsche-f94/
...
ist das so korrekt. Oder gibts ne andere Möglichkeit, die 100000 Links rasch möglichst aus dem Index zu entfernen?
Vielen Dank
Mein Programmierer musste gewisse URL Paramter ändern. Nun habe ich über google webmastertools festegestellt, dass ich sehr viele Crawling Fehler habe. Die meisten sind 500er Fehler. Problem ist, dass mein Programmierer sagt, dass er momentan keine 301er Umleitung platzieren kann, da ca. 100'000 Links betroffen sind. Er meint, dass google dies von selber richten wird. Nun habe ich gelesen, dass ich mittels einer google.txt datei, diese Seiten auch löschen kann.
Habe das nun so gelöst:
User-agent: *
Disallow: /forum/apfel-f40/
Disallow: /forum/birne-f62/
Disallow: /forum/kirsche-f94/
...
ist das so korrekt. Oder gibts ne andere Möglichkeit, die 100000 Links rasch möglichst aus dem Index zu entfernen?
Vielen Dank