Indizierung trotz noindex und disallow in der robots.txt
Verfasst: 18.11.2009, 11:34
Hallo,
ich habe einen Seitenbereich, der nicht indexiert werden soll.
Die urls lauten z.B. /test.html?test=test&test2=test2
unterscheiden sich also nur durch die Parameter und der Content ist für Google total irrelevant.
Daher werden die Seiten mit
<meta name="robots" content="NOINDEX">
generiert und in der robots.txt steht:
User-agent: *
Disallow: /test.html
Wenn ich in den Webmastertools teste, wird auch immer angegeben, dass die Seiten gesperrt sind.
"Blockiert für Zeile 25:Disallow: /test.html"
Dieser Zustand besteht jetzt schon seit über einem Jahr und trotzdem habe ich zigtausend urls im index.
ich habe einen Seitenbereich, der nicht indexiert werden soll.
Die urls lauten z.B. /test.html?test=test&test2=test2
unterscheiden sich also nur durch die Parameter und der Content ist für Google total irrelevant.
Daher werden die Seiten mit
<meta name="robots" content="NOINDEX">
generiert und in der robots.txt steht:
User-agent: *
Disallow: /test.html
Wenn ich in den Webmastertools teste, wird auch immer angegeben, dass die Seiten gesperrt sind.
"Blockiert für Zeile 25:Disallow: /test.html"
Dieser Zustand besteht jetzt schon seit über einem Jahr und trotzdem habe ich zigtausend urls im index.