Seite 1 von 1

robots.txt & Parameter-Ausschluss

Verfasst: 03.09.2007, 09:07
von Margin
Moin moin,

öhm, ja also ... ich und php :lol:
Ich weiß ja nicht mal, ob die Frage verständlich wird *g*

Also:
Wie kann ich Parameter-Urls über die robots.txt für Google etc. sperren?

Ich meine so Dinger, wie:
https://domain.de/index.php[b]?q=[/b]eins
https://domain.de/index.php[b]?q=[/b]zwei
https://domain.de/index.php[b]?q=[/b]drei
...

Die Index selber darf nicht gesperrt werden.
Aber alle ?q=... müssen verschwinden und zwar leider ziemlich zügig :(

Wer weiß, was ich da anstellen muss?
Mag da auch nicht rumexperimentieren.
Wenn ich da 'nen Bock schieße, dann könnt' alles zu spät sein.


Gruß Margin

Verfasst:
von
SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Verfasst: 03.09.2007, 11:31
von chrizz
mojnmojn,

soweit ich weiß kannst du über die robots.txt keine Parameter ausschließen. Das muss man dann mit der htaccess basteln.

Es gibt nur seit neustem bei Yahoo die Möglichkeit Parameter auszuschließen. Habs allerdings noch nicht probiert, weil ich es per htaccess gelöst/umgeschrieben habe...

cheers

Verfasst: 03.09.2007, 17:17
von pr_sniper
User-agent: *
Disallow: /index.php?q

- genügt, um alles von der Indizierung auszuschließen, das mit "index.php?q" beginnt.

Nix mit .htaccess.

Verfasst: 04.09.2007, 06:17
von Margin
Hi chrizz,

die Info hatte ich auch bei meiner Suche gefunden, allerdings stets im Zusammenhang mit Rewriting und ich mochte irgendwie nicht glauben, dass das alles ist. Ich will ja nix umschreiben. Die Biester sollen ja einfach komplett verschwinden. Ersatzlos.

Danke pr_sniper, so hätte meine Lösung ausgesehen, wenn ich auf gut Glück geraten hätte. Da war dann wohl einfach das Brett vorm Kopf zu gut angenagelt *g*

Ich wünsch Euch einen schönen Dienstag


Margin