HTML Seiten mit Parameter per Robots.txt ausschließen
Verfasst: 09.10.2007, 11:43
Ich habe folgendes Problem: Und zwar das Google Seiten aufnimmt, die es eigentlich nicht aufnehmen soll.
Kann ich Google auch sagen das Seiten mit einem bestimmten Parameter in der URL nicht mit aufgenommen werden soll?
z.B.
wunschzettel.html&meta=3
nachricht.html&meta=3
Es sollen also alle URL's/HTML-Seiten die den Parameter meta=3 enthalten NICHT mit aufgenommen werden .
Wie müsste man das dann in die robots.txt schreiben?
Schon mal vielen Dank für eure Hilfe im voraus...
_________________
Kann ich Google auch sagen das Seiten mit einem bestimmten Parameter in der URL nicht mit aufgenommen werden soll?
z.B.
wunschzettel.html&meta=3
nachricht.html&meta=3
Es sollen also alle URL's/HTML-Seiten die den Parameter meta=3 enthalten NICHT mit aufgenommen werden .
Wie müsste man das dann in die robots.txt schreiben?
Schon mal vielen Dank für eure Hilfe im voraus...
_________________