ich würde gern mal folgende profi-spammer-url analysieren: https://www.globetrotter-active.de/398_ ... index5.htm
ist vermutlich von der hamburger firma eprofessional, die haben's offensichtlich drauf... ;-)
leider leitet diese url sofort weiter auf globetrotter.de und so komm ich nicht an den quelltext der spam-seite. habe schon js abgeschaltet, aber daran liegt's auch nicht.
weiß jemand, wie diese weiterleitung funktioniert? und wie ich an den quelltext rankomme?
Zum Beispiel mit einem Download-Tool wie wget. Oder über einen HTML-Checker, z.B.: Topsubmit. Wenn Du nur Text und kein HTML sehen willst auch mit meinem Suchmaschinen-Simulator.
Gruss,
Thomas
@southmedia: jawoll das ist es und ich würde es trotzdem gern verstehen. wie geht sowas?
@fruetel: das löst mein problem nicht, denn der topsubmit-checker zeigt nur den text von globetrotter.de und nicht den der spam-seite. ich schätze, dl-tools würden das gleich tun.
was heißt unsinnig? möglicherweise ist das ein genialer trick um google auszutricksen. wie gesagt, die seite kommt von eprofessional, das sind keine anfänger.
Ups, Tatsache. Der HTML-Code sah bei Topsubmit dermassen dreckig und mit URLs vollgestopft aus (Zeile 22, wow), dass ich dachte das wäre die Spamseite. Hatte nicht so genau hingesehen, der Blutkoffeinlevel war noch nicht ausreichend.
hmm okay, das ist ja schonmal ein ansatz. d.h. also die machen das mit einer weiterleitung direkt vom server. diese kann google offenbar, genau wie js-redirects nicht erkennen.
aber sowas kann man wohl auf dem billigwebspace wohl kaum machen, wo ich meine meisten domains habe...
Ein 302 weist ja auf eine "Moved Temporarily" Seite hin. Und da wurde wohl globetrotter.de als neue Seite angegeben.
Meine Vermutung: Platzierung optimierter URL unter der URL, Platzierung in Suchmaschinen, Löschen der Seite und Einrichten der 302-Umleitung. Suchmaschinen behalten aufgrund ihrer Langsamkeit aber die Seite noch in den Ergebnislisten.
jo das wäre wohl möglich. nur das ist ja doch ziemlich aufwändig und muss alle paar wochen neugemacht werden, wenn die seite wieder indiziert wird... naja, für die firma scheint's sich zu lohnen.
Naja das ließe sich automatisieren... wenn der Robot vorbeigekommen ist wird täglich der Suchmaschinenindex danach untersucht und sobald die Seite darin zu finden ist wird eben die Weiterleitung installiert.
Per Script ließe sich das mit ein paar tausend solchen Seiten erledigen.