eine meiner seiten ist heute rausgeflogen. aus meiner sicht keine verstöße gegen die regeln, kein hidden text, spam oder ähnliches. ob mir g....e eine mail gesandt hatte kann ich nicht sagen, bei der absendeadresse im 1. posting ist die sicher im spamfilter hängengeblieben. habe mal ne mail an g.......
wirklich sicher nur session abschalten, coockies verwenden, alles andere brachte bei mir bei mozilla-bots keinen erfolg, session wurden leider immer übergeben, daher auch die seiten in den sumas.
hallo zusammen, mit folgender umleitung möchte ich die leider in den sumas vorhanden seiten mit sessionid rausbekommen (xtc-shop). birgt diese umleitung die gefahr unschöne folgen nach sich zu ziehen? RewriteCond %{HTTP_USER_AGENT} bot|crawler|slurp|teoma [NC] Rewri...
gibt es eine möglichkeit sich die einträge bei der site-abfrage nach cachedatum / oder neueste anzeigen zu lassen?
erweiterte suche hat 3 monate als kleinsten zeitraum (ist mir aber zu lang)
kann es auch sein, das der geloggte googleeintrag die angefragte url ist, sprich eine die in google bereits mit sid vorhanden war?
habe es mal mit einem simulator versucht, damit bekommt der mozilla/5.0 von google keine sid.
wie oder wo kann ich überprüfen wie ein bot eine seite gespidert hat, mit oder ohne session id.
nachher in den serps ist klar ( ) , aber nach direkt dem spidern?