Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Links mit SIDs aus dem Google Index bekommen?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
FEAnoR
PostRank 7
PostRank 7
Beiträge: 639
Registriert: 22.10.2005, 14:58

Beitrag von FEAnoR » 01.03.2006, 20:46

Moin,

ich habe hier 'nen Freund der leider SIDs verwendet hat, und die jetzt beseitigt wurden. Jetzt nur die Frage, wie bekommt man diese URLs, die ja bekanntlich für DC sorgen wieder aus dem Index? Kann man das einfach via robots.txt managen?

Beispiel: index.php?sid=8c44266d3f6f9caca6fb780a6f9cc1a7

Hat jemand einen Tipp?
Danke im Voraus,
Marco

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 01.03.2006, 21:31

Code: Alles auswählen

User-agent: Googlebot
Disallow: /*sid*
sollte tun... Ist aber ungetestet...

Google Sitemaps bietet einen robots.txt Validator an... Vielleicht damit mal testen...

bull
PostRank 9
PostRank 9
Beiträge: 2166
Registriert: 20.09.2003, 20:57
Wohnort: Vèneto

Beitrag von bull » 01.03.2006, 21:45

Code: Alles auswählen

RewriteCond %{QUERY_STRING} sid
RewriteCond %{HTTP_USER_AGENT} Googlebot
RewriteRule .* http://%{HTTP_HOST}/? [R=301]

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


FEAnoR
PostRank 7
PostRank 7
Beiträge: 639
Registriert: 22.10.2005, 14:58

Beitrag von FEAnoR » 01.03.2006, 22:14

Danke, Jungs!

FEAnoR
PostRank 7
PostRank 7
Beiträge: 639
Registriert: 22.10.2005, 14:58

Beitrag von FEAnoR » 01.03.2006, 22:27

Sorry, muss doch nochmal fragen.

@bull

Code: Alles auswählen

RewriteCond %{QUERY_STRING} sid
RewriteCond %{HTTP_USER_AGENT} Googlebot
RewriteRule .* http://%{HTTP_HOST}/? [R=301]
Damit werden alle URLs explizit nur für den Googlebot umgeschrieben, weitere Änderungen am Code sind nicht notwendig?
Wenn ich die SIDs für alle User entfernen möchte, dann genügt es, wenn ich die zweite Zeile einfach weglasse? Oder ist QUERY_STRING nur auf die SERPS bezogen, damit der Googlebot weiss, dass die URLs umgezogen (301, moved) sind?

bull
PostRank 9
PostRank 9
Beiträge: 2166
Registriert: 20.09.2003, 20:57
Wohnort: Vèneto

Beitrag von bull » 01.03.2006, 22:40

Wenn ich die SIDs für alle User entfernen möchte, dann genügt es, wenn ich die zweite Zeile einfach weglasse?
Ja - wenn von den verwendeten PHP-Skripten ganz sicher kein sicher kein "sid" an die URL angehängt wird (da sonst u.U. Endlosschleife).

Christophe
PostRank 5
PostRank 5
Beiträge: 246
Registriert: 13.12.2004, 13:07

Beitrag von Christophe » 02.03.2006, 12:58

Wenn du Session-Ids für alle Besucher deaktivieren willst, würde ich das direkt im Skript tun. Du hast sonst unnötig viele Hits auf deinem Webserver und das Surfen wird auch minimal verzögert.

Hier ist eine mod_rewrite-Variante, die andere Parameter beibehält:

Code: Alles auswählen

# sid=
RewriteCond %{HTTP_USER_AGENT} bot|crawler|slurp|teoma [NC]
RewriteCond %{QUERY_STRING} (.*)&sid=[a-zA-Z0-9]*(.*)
RewriteRule (.*) $1?%1%2 [L,R=301]

FEAnoR
PostRank 7
PostRank 7
Beiträge: 639
Registriert: 22.10.2005, 14:58

Beitrag von FEAnoR » 03.03.2006, 15:19

Danke, Christophe! Das wäre ich jetzt mal testen.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag