sollten meine Fragen schon in irgendeiner Form beantwortet wurden sein tut es mir jetzt schon leid das ich sie hier trotzdem stelle.... Ich habe die Suche benutzt nur bin ich halt ein mod-rewrite Dau und wußte die Suche dann wahrscheinlich nicht richtig mit Infos zu füttern.
Jetzt aber zu meinem Problem bzw. zu meinen Fragen:
Ich betreibe eine kommerzielle Seite die aus den (vermutlich) verschiedensten Gründen durch die bekannteste Suchmaschine abgestraft wurde.
Ich möchte diese Seite jetzt auf eine neue Domain umziehen lassen (Was noch nichtmal das größte Problem ist) . Ich möchte aber keine komplette Weiterleitung per 301 machen sondern möchte nur bestimmte Besucher (Robots, Linkpartner und Besucher) auf die neue Domain aufmerksam machen. Soll heißen, ich möchte nicht alle Linkpartner anschreiben und um Änderung des Links bitten sondern diese sollen "automatisch" zur neuen Domain geleitet werden... gleichzeitig möchte ich "unerwünschte Besucher/Spider/Schmarotzer/Textklauer" gerne von der neuen Domain fernhalten.
Du kannst über den User-Agent steuern ob ein Besucher den Redirect bekommt. Damit kannst du natürlich für ausgesuchte "böse" Bots die Umleitung verhindern. Persönlich glaube ich aber nicht, dass sich der Aufwand lohnt, in ein paar Tagen sind die auch auf der neuen Domain alle wieder da
Ich sehe es so ähnlich wie Mario, es ist hier nicht unbedingt sinnvoll, so eine Aussortierung vorzunehmen. Willst Du Deine neue Domain effektiv schützen, baue den Schutz direkt an dieser ein.
Hier haben doch sicherlich einige entsprechende .htaccess am laufen oder?
Ich möchte ja auch nichts geschenkt haben und würde auch sicherlich ein paar Euronen investieren......
Es geht mir einfach nur darum, das ich mich zwar sicherlich in die Materie einarbeiten könnte aber das würde bei meinem Wissensstand einfach zu lange dauern!!
Was würdet Ihr glauben, was ich für eine fertige .htaccess denn so investieren müßte??
Eine komplette Umleitung einer Domain auf eine neue ist mit 1-2 Zeilen in der htaccess erledigt. Für das Aussperren von Spambots kopiert man sich üblicherweise eine fertige Liste aus einem Forum und bastelt dann evtl. später neue Bots hinzu.
Für das initiale Setup muss man also nicht mehr tun als hier im Forum Nachschlagen zum Thema 301 (mehr als erschöpfend behandelt) und auf dem neuen Server mit einer "Anti-Spambot-htaccess" aus einem der oben erwähnten Beiträge nachpflegen.
Alternativ könntest du sicherlich einen fähigen Menschen für 1-2 Stunden Arbeit bezahlen.
ich habe auf dem neuen webspace jetzt eine .htaccess hinterlegt.....
gibt es eigentlich Probleme bzw. muss ich etwas beachten, wenn ich in der htaccess zum einen die Standarddomain bestimme und gleichzeitig die bösen Bots aussperre???
Ich habe mir jetzt tatsächlich etwas zusammengebastelt und dann auch gleich noch ein paar die mir so aufgefallen sind dazugepackt. Wenn man erst mal dabei ist, kann das ja richtig spannend werden
Eine Frage hätte ich dann aber doch noch dazu:
was bedeutet z.B. dieses
order deny,allow
deny from 67.15.0.0
und muß ich dann ein ErrorDocument hinterlegen ????
Ich frage deshalb, weil ich mittlerweile viele Spider gefunden habe, die sich nur als Googlebot ausgeben aber wenn ich die IP's abfrage sind es irgendwelche server4you o.ä. dinger....
Technisch gesehen ist ein ErrorDocument nie nötig. Der Server meldet per HTTP-Header den Fehler zurück und dem Client - sei es ein Browser oder ein Bot - reicht das völlig zur Information. Üblicherweise legt man ein ErrorDocument für 404-Fehler an damit der User eine schöne Fehlermeldung erhält.
Mit "order deny, allow" bzw "order allow, deny" gibt man an, in welcher Reihenfolge Apache die Zugriffsregeln abarbeiten soll. Man entscheidet sich quasi zwischen Whitelisting und Blacklisting. Setzt man "deny,allow" werden die Deny-Regeln abgearbeitet und alles auf das keine Regel zutrifft wird erlaubt. In dem Fall hat man ein Blacklisting, jeder darf bis auf die explizit gesperrten.
Mit "allow,deny" schafft man das Gegenteil, nämlich ein Whitelisting. Per default ist alles gesperrt, nur einzelne Adressen werden per "allow" freigegeben. Auf Webseiten macht ein Whitelisting aber nur in ganz seltenen Fällen (typischerweise Unternehmensseiten mit klar definiertem Userkreis) Sinn.