In meiner robots.txt habe ich
Code: Alles auswählen
User-agent: *
Disallow: /includes/
Wollte jetzt nur nochmal sichergehen: Habe ich das so richtig gemacht? Sprich: Normalerweise ist das "includen" ja Aufgabe des Webservers ... und der Spider dürfte ja dann quasi das für ihn relevante "Endprodukt" (= fertig zusammengebastelte index.php) vorfinden - oder ...?
