Hilfe beim aussperren von URLs benötigt
Verfasst: 14.01.2008, 12:12
Folgende Situation:
www.domain.tld/dir/1/index.htm
www.domain.tld/dir/1/2/index.htm
www.domain.tld/dir/1/2/3/index.htm
verweisen alle auf die selbe index.htm. Google selbst kennt natürlich viele index.htms mit dem selben Inhalt. Und dutzende Kopien einiger tausend Seiten auch.
Ich suche jetzt einen Ausdruck, um via robots.txt jede URI mit mehr als einer Zahl (an dieser Stelle) für den GoogleBot auszusperren.
Habt ihr eine Idee?
www.domain.tld/dir/1/index.htm
www.domain.tld/dir/1/2/index.htm
www.domain.tld/dir/1/2/3/index.htm
verweisen alle auf die selbe index.htm. Google selbst kennt natürlich viele index.htms mit dem selben Inhalt. Und dutzende Kopien einiger tausend Seiten auch.
Ich suche jetzt einen Ausdruck, um via robots.txt jede URI mit mehr als einer Zahl (an dieser Stelle) für den GoogleBot auszusperren.
Habt ihr eine Idee?
