Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

nur bestimmte Besucher per 301 weiterleiten

Ajax, Hijax, Microformats, RDF, Markup, HTML, PHP, CSS, MySQL, htaccess, robots.txt, CGI, Java, Javascript usw.
Neues Thema Antworten
kleinschmidt
PostRank 1
PostRank 1
Beiträge: 18
Registriert: 10.02.2006, 12:34

Beitrag von kleinschmidt » 10.02.2006, 12:38

Hallo erst mal an dieses tolle Forum,

sollten meine Fragen schon in irgendeiner Form beantwortet wurden sein tut es mir jetzt schon leid das ich sie hier trotzdem stelle.... Ich habe die Suche benutzt nur bin ich halt ein mod-rewrite Dau und wußte die Suche dann wahrscheinlich nicht richtig mit Infos zu füttern.

Jetzt aber zu meinem Problem bzw. zu meinen Fragen:

Ich betreibe eine kommerzielle Seite die aus den (vermutlich) verschiedensten Gründen durch die bekannteste Suchmaschine abgestraft wurde.

Ich möchte diese Seite jetzt auf eine neue Domain umziehen lassen (Was noch nichtmal das größte Problem ist) . Ich möchte aber keine komplette Weiterleitung per 301 machen sondern möchte nur bestimmte Besucher (Robots, Linkpartner und Besucher) auf die neue Domain aufmerksam machen. Soll heißen, ich möchte nicht alle Linkpartner anschreiben und um Änderung des Links bitten sondern diese sollen "automatisch" zur neuen Domain geleitet werden... gleichzeitig möchte ich "unerwünschte Besucher/Spider/Schmarotzer/Textklauer" gerne von der neuen Domain fernhalten.

Geht dies ????

Vielen Dank schon mal für eure Antworten

mfg

kleinschmidt

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

mariow
PostRank 4
PostRank 4
Beiträge: 177
Registriert: 08.03.2005, 12:05

Beitrag von mariow » 10.02.2006, 13:23

Du kannst über den User-Agent steuern ob ein Besucher den Redirect bekommt. Damit kannst du natürlich für ausgesuchte "böse" Bots die Umleitung verhindern. Persönlich glaube ich aber nicht, dass sich der Aufwand lohnt, in ein paar Tagen sind die auch auf der neuen Domain alle wieder da :-)

Zum Matching der User-Agents empfehle ich ganz klassisch die Hilfe zu mod_rewrite: https://httpsd.apache.org/docs/2.0/mod/mod_rewrite.html

Hasso
PostRank 9
PostRank 9
Beiträge: 2107
Registriert: 12.01.2004, 13:18

Beitrag von Hasso » 10.02.2006, 13:46

@kleinschmidt

Willkomen hier im Forum.

Ich sehe es so ähnlich wie Mario, es ist hier nicht unbedingt sinnvoll, so eine Aussortierung vorzunehmen. Willst Du Deine neue Domain effektiv schützen, baue den Schutz direkt an dieser ein.

Eventuell interessante Angaben dazu unter:

https://www.abakus-internet-marketing.d ... 13681.html
https://www.abakus-internet-marketing.d ... 22936.html
https://www.abakus-internet-marketing.d ... t-985.html

u.v.a. gut Tipps unter
https://www.abakus-internet-marketing.de/foren/search/

Grüsse
Hasso

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


kleinschmidt
PostRank 1
PostRank 1
Beiträge: 18
Registriert: 10.02.2006, 12:34

Beitrag von kleinschmidt » 10.02.2006, 13:47

Hallo mariow,

danke für den Link! und deine Antwort!!

Gibt es da auch eine gute Quelle in deutsch :oops:

bin irgendwie beim Schulenglisch stehengeblieben und möchte keinen Fehler machen!!

Hasso
PostRank 9
PostRank 9
Beiträge: 2107
Registriert: 12.01.2004, 13:18

Beitrag von Hasso » 10.02.2006, 13:55


kleinschmidt
PostRank 1
PostRank 1
Beiträge: 18
Registriert: 10.02.2006, 12:34

Beitrag von kleinschmidt » 10.02.2006, 14:18

@Hasso

vielen Dank auch für deine Hinweise und Quellen!!

Eine Frage:

Hier haben doch sicherlich einige entsprechende .htaccess am laufen oder?

Ich möchte ja auch nichts geschenkt haben und würde auch sicherlich ein paar Euronen investieren......

Es geht mir einfach nur darum, das ich mich zwar sicherlich in die Materie einarbeiten könnte aber das würde bei meinem Wissensstand einfach zu lange dauern!!

Was würdet Ihr glauben, was ich für eine fertige .htaccess denn so investieren müßte??

mariow
PostRank 4
PostRank 4
Beiträge: 177
Registriert: 08.03.2005, 12:05

Beitrag von mariow » 10.02.2006, 15:34

Eine komplette Umleitung einer Domain auf eine neue ist mit 1-2 Zeilen in der htaccess erledigt. Für das Aussperren von Spambots kopiert man sich üblicherweise eine fertige Liste aus einem Forum und bastelt dann evtl. später neue Bots hinzu.
Für das initiale Setup muss man also nicht mehr tun als hier im Forum Nachschlagen zum Thema 301 (mehr als erschöpfend behandelt) und auf dem neuen Server mit einer "Anti-Spambot-htaccess" aus einem der oben erwähnten Beiträge nachpflegen.
Alternativ könntest du sicherlich einen fähigen Menschen für 1-2 Stunden Arbeit bezahlen.

kleinschmidt
PostRank 1
PostRank 1
Beiträge: 18
Registriert: 10.02.2006, 12:34

Beitrag von kleinschmidt » 10.02.2006, 16:12

Hi mariow,

ich habe auf dem neuen webspace jetzt eine .htaccess hinterlegt.....

gibt es eigentlich Probleme bzw. muss ich etwas beachten, wenn ich in der htaccess zum einen die Standarddomain bestimme und gleichzeitig die bösen Bots aussperre???

Ich habe mir jetzt tatsächlich etwas zusammengebastelt und dann auch gleich noch ein paar die mir so aufgefallen sind dazugepackt. Wenn man erst mal dabei ist, kann das ja richtig spannend werden 8)

Eine Frage hätte ich dann aber doch noch dazu:

was bedeutet z.B. dieses
order deny,allow
deny from 67.15.0.0
und muß ich dann ein ErrorDocument hinterlegen ????

Ich frage deshalb, weil ich mittlerweile viele Spider gefunden habe, die sich nur als Googlebot ausgeben aber wenn ich die IP's abfrage sind es irgendwelche server4you o.ä. dinger....

mariow
PostRank 4
PostRank 4
Beiträge: 177
Registriert: 08.03.2005, 12:05

Beitrag von mariow » 10.02.2006, 20:25

Technisch gesehen ist ein ErrorDocument nie nötig. Der Server meldet per HTTP-Header den Fehler zurück und dem Client - sei es ein Browser oder ein Bot - reicht das völlig zur Information. Üblicherweise legt man ein ErrorDocument für 404-Fehler an damit der User eine schöne Fehlermeldung erhält.

Mit "order deny, allow" bzw "order allow, deny" gibt man an, in welcher Reihenfolge Apache die Zugriffsregeln abarbeiten soll. Man entscheidet sich quasi zwischen Whitelisting und Blacklisting. Setzt man "deny,allow" werden die Deny-Regeln abgearbeitet und alles auf das keine Regel zutrifft wird erlaubt. In dem Fall hat man ein Blacklisting, jeder darf bis auf die explizit gesperrten.
Mit "allow,deny" schafft man das Gegenteil, nämlich ein Whitelisting. Per default ist alles gesperrt, nur einzelne Adressen werden per "allow" freigegeben. Auf Webseiten macht ein Whitelisting aber nur in ganz seltenen Fällen (typischerweise Unternehmensseiten mit klar definiertem Userkreis) Sinn.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag