Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Ausschließen von Variablen mithilfe von robots.txt

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
critch
PostRank 1
PostRank 1
Beiträge: 24
Registriert: 12.12.2010, 14:04

Beitrag von critch » 12.12.2010, 14:08

Hatte das Problem, dass Google mich durch SessionID´s mit Doppelcontent gelistet hat. Nun habe ich folgende Zeilen in der robots.txt eingetragen - Passt das alles so?

=========================
User-agent: *
Disallow: /autocomplete.php
Disallow: /neuigkeiten.html
Disallow: /*?PHPSESSID=*

Allow: /
=========================

Grüße

Michael

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

tojas
PostRank 7
PostRank 7
Beiträge: 624
Registriert: 11.09.2003, 17:14
Wohnort: Berlin

Beitrag von tojas » 12.12.2010, 20:52

Ob das so passt, hängt von deinen URLs ab.

Ich würde das Ganze mit dem cannonical Tag lösen, das ist sicherer.

sG
tojas

critch
PostRank 1
PostRank 1
Beiträge: 24
Registriert: 12.12.2010, 14:04

Beitrag von critch » 12.12.2010, 21:01

Mir gehts nur um die Zeile:
Disallow: /*?PHPSESSID=*

Beispieladresse: https://xxx.de/index.php?PHPSESSID=123456