hallo,
wenn ich die Session-ID für spider verbiete, bekomme ich einen php-Fehler:
so siehts danach aus:
Warning: file() [function.file]: Unable to access load_this/spiders.txt in /mnt/webspace/**/******/gesundwuerzen.de/load_this/load_this_bigware_10.php on line 136
Warning: file(load_this/spiders.txt) [function.file]: failed to open stream: No such file or directory in /mnt/webspace/**/*****/gesundwuerzen.de/load_this/load_this_bigware_10.php on line 136
der code in der Datei sieht so aus:
} elseif (SESSION_BLOCK_SPIDERS == 'True') {
$user_agent = strtolower(getenv('HTTP_USER_AGENT'));
$spider_flag = false;
if (go_not_null($user_agent)) {
$spiders = file(FOLDER_RELATIV_INCLUDES . 'spiders.txt');
for ($i=0, $n=sizeof($spiders); $i<$n; $i++) {
if (go_not_null($spiders[$i])) {
if (is_integer(strpos($user_agent, trim($spiders[$i])))) {
$spider_flag = true;
break;
auch ein manuelles Anlegen einer spiders.txt bringt keinen Erfolg.
das ding heißt eigentlich nicht spider.txt sondern robots.txt
dann kannst du es sehr wohl verbieten die anhänge zu cachen!
nnnur dauert es eine ganze weile, bis die wieder aus dem index verschwunden sind!
kann man die nich per 301 weiterleiten??? O_o o_O da musste mal die profis fragen!
bei mir hatte sich das nach einer gaanzen weile von allein erledigt!
ein seo muss geduld haben
gruß zuendschnur
EDIT: Ahh diese spider.txt ^^ sorry kannst das aber auch mit der robots.txt ausschließen...
Also bei mir steht unter: Konfiguration -> Sessions -> Prevent Spider Sessions: True
Dann habe ich noch eine spiders.txt angelegt im jeweiligen Ordner und es funzt..