Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Wieso klappt disallow hier nicht?

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Babis
PostRank 3
PostRank 3
Beiträge: 74
Registriert: 04.03.2009, 14:00

Beitrag von Babis » 01.04.2010, 16:40

Hallo zusammen,

sitze schon eine Weile an diesem Problem, aber komme nicht weiter, wäre für Hilfe sehr dankbar:

Da auf einer meiner Seiten viele youtube-Videos eingebettet sind und es öfters mal vor kommt, dass diese vom Nutzer entfernt werden oder sich aus anderen Gründen nicht mehr abspielen lassen habe ich unter jede Seite mit Videos einen Link gesetzt: "Bitte melden falls Video nicht mehr funktioniert".
Mit einem Klick auf den Link bekomme ich eine Email zugesendet mit dem Titel der Seite auf der sich der Link befindet.

Nun habe ich das Problem das der Googlebot natürlich diesem Link auch folgt und daher bei jedem crawl eine Email gesendet wird. Um dies zu unterbinden habe ich in der robots.txt das Verzeichnis mit der php-Datei die beim Klick auf den Link augerufen wird "disallowed".

Leider folgt Google dem Link immernoch, auch nofollow hat nicht weitergeholfen. Kann mir jemand weiterhelfen?

Danke für Antworten

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Synonym
PostRank 10
PostRank 10
Beiträge: 3708
Registriert: 09.08.2008, 02:55

Beitrag von Synonym » 01.04.2010, 16:48

Bis die neue robots.txt ausgelesen und auch beachtet wird können durchaus Tage und Wochen vergehen. Ich habe auch so was in der Art wie Du, wo der Bot immer eine Aktion auslöste. Mach das ganze per Javascript und gut ist. Eventuell auch noch den Referer prüfen, denn Google sendet schon mal keinen.

heino
PostRank 8
PostRank 8
Beiträge: 833
Registriert: 21.09.2006, 13:42

Beitrag von heino » 01.04.2010, 16:50

Kopier dir folgendes in deine .htaccess

Code: Alles auswählen

RewriteCond %{HTTP_USER_AGENT} (Googlebot|msnbot|Slurp) [NC]
RewriteRule !error - [L,F]
Zuletzt geändert von heino am 01.04.2010, 16:55, insgesamt 2-mal geändert.