Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Ey, Google geht mir auf die Eier

Ajax, Hijax, Microformats, RDF, Markup, HTML, PHP, CSS, MySQL, htaccess, robots.txt, CGI, Java, Javascript usw.
Neues Thema Antworten
SeriousBadMan
PostRank 10
PostRank 10
Beiträge: 4005
Registriert: 16.06.2008, 22:26
Wohnort: Welt

Beitrag von SeriousBadMan » 07.06.2009, 01:38

Also, hab ne Affiliate Seite, da indiziert Google seit Neuestem die Affiliate-Landingpages. Diese sind mit Nofollow verlinkt und sind alle maskiert, das entsprechende Verzeichnis (über das die Links geleitet werden) ist in der robots.txt gesperrt. Trotzdem indiziert Google nun (früher nicht) die Links (erscheinen bei der site:domain.de-Abfrage).

Was soll der Scheiss?

Und was kann ich dagegen tun? Wie geht doch gleich das Sperren eines Ordners für den Googlebot über die .htaccess?

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

JohnBi
PostRank 10
PostRank 10
Beiträge: 2957
Registriert: 22.02.2009, 20:31

Beitrag von JohnBi » 07.06.2009, 06:35

vielleicht haste nen Fehler in der robots.txt, denn ich mache das gleiche wie du und bei mir funktioniert das super.

Wie das über die .htaccess Datei geht weiss ich leider nicht.

Code: Alles auswählen

User-agent: *
Disallow: /outbound/
so sieht es bei mir aus und funktioniert ...
Probleme mit Google & Co.? Hier die Lösung! - Linktausch?! | Projekt kaufen?! |
-------------------------------------------
Der PostRank und das Anmeldedatum stehen in keinem Verhältnis zur Qualität der Antworten einiger User. {JohnBi, 2009}

Rem
PostRank 10
PostRank 10
Beiträge: 3786
Registriert: 08.12.2005, 18:45

Beitrag von Rem » 07.06.2009, 11:17

Wie geht doch gleich das Sperren eines Ordners für den Googlebot über die .htaccess?
ja ja... zwei Versionen einer Homepage sind meistens das Ende vom Anfang.
entsprechende Verzeichnis (über das die Links geleitet werden)
also nur das wo die redirects drin sind? Oder auch das Verzeichnis mit den eigentlichen Landingpages?

Das Problem ist, dass google teilweise dank Toolbar und co, problemlos Deep-Web-URLs rausbekommt, weshalb man mit Robot.txt-Sperren nicht sparen sollte...

Du kannst die Affili-Landingpages übrigens auch mit "canonical" kennzeichnen:
https://googlewebmastercentral.blogspot ... nical.html

Macht vielleicht auch Sinn... Wobei ich nicht selbst getestet habe, ob das Auswirkungen auf das Ranking des "Orginal"s hat.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag