[Gelöst] Mit robots.txt Seiten per Wildcard ausschließen
Verfasst: 02.01.2011, 11:41
Hallo,
kann mir bitte jemand posten, ob ich mit der robots.txt Seiten per Wildcard (also *) von der Indexierung bei Google zuverlässig ausschließen kann?
Also
Viele Grüße,
pee
kann mir bitte jemand posten, ob ich mit der robots.txt Seiten per Wildcard (also *) von der Indexierung bei Google zuverlässig ausschließen kann?
Also
Mein Problem ist noch, dass einige dieser unerwünschten Seiten bereits im Google Index auftauchen. Werden die Seiten mit der Zeit aus dem Google-Index entfernt, wenn ich den Zugriff per robots.txt unterbinde?User-agent: *
Disallow: /diese-seiten-bitte-nicht*
Viele Grüße,
pee