Herzlich willkommen im Archiv vom ABAKUS Online Marketing Forum
Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.
Querie? Request!profo hat geschrieben:Ein korrekter 404 für solche Queries wäre wohl nicht unschlau, wenn wirklich Google dahinter steckt...
Ein Grund könnte sein, das ein "Schlaumeier" dir erzählen will das da was nicht stimmt ...und aus welchem Grund auch immer, die URLs in Kleinbuchstaben umwandeln?
Genau damit hat der Slurp Bot von Yahoo früher Webmaster genervt.und wenn wir schon über Optimirung nachdenken
ich geht auch mal gern über [pfeil nach oben]
in der /hira/chie/ nach oben ... und wenn ich da dann lauter 404er sehe schüttel ich immer den Kopf ...
... ist doch total unlogisch das da Dateien in "mehreren"Ordnern liegen die irgendwie sinnlos, weil selbst nicht existent, sind
Von den Logs her sieht es nach einer kurzen Browsersession aus - CSS und JS werden geladen und innerhalb einer Minute ein paar wenige Seiten abgesurft; für ein automatisiertes Tool scheint mir das zulange auf der Seite. Ob's wirklich Google ist bleibt natürlich unklar; solche Tests machen aber am ehesten für Suchmaschinen Sinn und insofern läge es schon nahe.chris21 hat geschrieben:@profo:Der Einschätzung aus dem Blog, da würde gleich ein QR dahinterstecken, folge ich nicht. a) SF IP ist dafür kein hinreichendes Indiz b) könnte es eher ein Tool sein - und wenn das nicht von einer G IP kommt, würde ich es auch nicht Google zuordnen. Könnte also alles mögliche sein - ein Kunstprojekt, dass 404er sammelt?
Diese Abfrage ist eigentlich nur sinnvoll um zu sehen ob eine eigene 404 existiert."/this_page_should_not_exist.fake"
Ich meine, Du liegst da nicht so ganz richtig3rr0r hat geschrieben:es gibt da doch einen Bot, der auf CatchAll Subdomain prüft um genau an der Stelle dann einzubrechen.Diese Abfrage ist eigentlich nur sinnvoll um zu sehen ob eine eigene 404 existiert."/this_page_should_not_exist.fake"
Wenn ich eine Seite hacken will um eigenen Code zu plazieren, wäre die nicht existierende SubDomain oder die eigene 404 Seite ein guter Platz: ...
Thanx ... wieder was dazu gelernt.profo hat geschrieben:Ein 404 macht diese Art des Parasite-Hostings aber gerade zunichte; denn Links auf 404ern sind komplett wertlos.
Die Bots, die standardmäßig auf 404er oder 500er checken (wootwoot und co), suchen eher nach Serverinformationen auf der Suche nach Exploits.
Jetzt mal ehrlich.800XE hat geschrieben:https://BrotscheibenHalbierer.xe.vg/dc/ ... -senf.html
templer hat geschrieben:Jetzt mal ehrlich.800XE hat geschrieben:https://BrotscheibenHalbierer.xe.vg/dc/ ... -senf.html
Das soll nun keinesfalls respektlos erscheinen, aber...
...wie stehst Du eigentlich so zu Drogen?
Ich bin mir da nicht sicher, ob das nicht eine geniale Idee ist.templer hat geschrieben:...wie stehst Du eigentlich so zu Drogen? :lol:
hatte dazu mal ne Zeitlang ne Signatur ....templer hat geschrieben:Jetzt mal ehrlich.800XE hat geschrieben:https://BrotscheibenHalbierer.xe.vg/dc/ ... -senf.html
Das soll nun keinesfalls respektlos erscheinen, aber...
...wie stehst Du eigentlich so zu Drogen?
https://bazinga.xe.vg/Archiv/CUT/Appell ... onsum.htmlweb_worker hat geschrieben:hehe, ich musste auch gleich an Drogenmissbrauch denken.
Ja, das funktioniert, oder den canonical-Tag einbauen. Das spart dann den 301.800XE hat geschrieben: ... einfach immer die aufgerufene URL beim Ausliefern der Seite nachbauen und mit der requesteten URL vergleichen ....
.... gibt es einen Unterschied einen Redirect machen