Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Alles außer Google verbieten

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
Beauty
PostRank 8
PostRank 8
Beiträge: 681
Registriert: 22.10.2011, 10:39

Beitrag von Beauty » 08.08.2013, 16:49

Code: Alles auswählen

RewriteEngine On
RewriteCond %{HTTP_USER_AGENT} !Googlebot [NC]
RewriteRule ^ - [F,L]
Damit gewähre ich nur dem Googlebot Zugriff auf eine Webseite.

Frage:

Seite A
Seite B

Ich leite Seite A auf Seite B per 301 um.

Seite A hat die o.g. .htaccess

Jetzt verlinke ich einige Male Seite A.

Wenn Seite B nun in den SERPS auftaucht, wird niemand ohne Zufall oder externe Kenntnisse erkennen können, dass Seite A auf Seite B per 301 (und somit auch die Backlinks) weiterleitet, da kein Bot der Welt (Ahrefs, Seo Spy Glass, etc.) die Möglichkeit hat, Seite A aufzurufen. Nur eben Google selbst also.

Der 301er ist nur erkennbar, wenn Seite A mit gefaktem Googlebot User-Agent aufgerufen wird, was reichlich unwahrscheinlich ist, da kein Grund dazu besteht und keiner meiner Konkurrenten je darauf kommen wird.

Denkfehler?

Ist das schon Cloaking?

Ich kann natürlich auch alle nervigen SEO Tools aussperren, aber manche verraten einfach nicht ihren User-Agent, so wie z.B. Seo Spy Glass