Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Ausschließen von Variablen mithilfe von robots.txt

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
critch
PostRank 1
PostRank 1
Beiträge: 24
Registriert: 12.12.2010, 14:04

Beitrag von critch » 12.12.2010, 14:08

Hatte das Problem, dass Google mich durch SessionID´s mit Doppelcontent gelistet hat. Nun habe ich folgende Zeilen in der robots.txt eingetragen - Passt das alles so?

=========================
User-agent: *
Disallow: /autocomplete.php
Disallow: /neuigkeiten.html
Disallow: /*?PHPSESSID=*

Allow: /
=========================

Grüße

Michael

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

tojas
PostRank 7
PostRank 7
Beiträge: 624
Registriert: 11.09.2003, 17:14
Wohnort: Berlin

Beitrag von tojas » 12.12.2010, 20:52

Ob das so passt, hängt von deinen URLs ab.

Ich würde das Ganze mit dem cannonical Tag lösen, das ist sicherer.

sG
tojas

critch
PostRank 1
PostRank 1
Beiträge: 24
Registriert: 12.12.2010, 14:04

Beitrag von critch » 12.12.2010, 21:01

Mir gehts nur um die Zeile:
Disallow: /*?PHPSESSID=*

Beispieladresse: https://xxx.de/index.php?PHPSESSID=123456

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

andy12
PostRank 5
PostRank 5
Beiträge: 226
Registriert: 25.10.2010, 15:40
Wohnort: Dresden

Beitrag von andy12 » 13.12.2010, 10:58

In der Robots.txt kannst du nur Links ausschließen. Nach dem Fragezeichen werden ausschließlich Parameter übertragen. Damit kannst du aber ganz gut in PHP weiterarbeiten. D. h. das Verbot über ein PHP Script aussprechen. Aber normaler Weise sind Cononical-URLs dafür da das so etwas von Google gar nicht erst indexiert wird. Würde dir raten das einzuschalten bzw. nachträglich in deine Seite zu implementieren. Ist auf lange Sicht die saubere Lösung.

critch
PostRank 1
PostRank 1
Beiträge: 24
Registriert: 12.12.2010, 14:04

Beitrag von critch » 13.12.2010, 11:15

Google sagt dazu folgendes:
If Google knows that these pages contain the same content, we may index only one version for our search results. However, you can specify up to 15 parameters you'd like Google to ignore (Google treats these requests as suggestions rather than directives). Ignoring certain parameters can reduce duplicate content in Google's index, and make your site more crawlable. For example, if you specify that the parameter sessionid should be ignored, Google will consider https://www.example.com/dresses/green.h ... nid=273749 to be the same as https://www.example.com/dresses/green.htm.

chris21
PostRank 9
PostRank 9
Beiträge: 2758
Registriert: 10.04.2005, 18:17

Beitrag von chris21 » 13.12.2010, 13:25

Critch, für Google passt das mit der Robots.txt, wie Du es machst.

Die ignore Geschichte kannst Du in den Webmaster Tools angeben.

Canonical wäre auch eine Idee.

Am Besten wäre aber tatsächlich, die SESSIDs programmatisch serverseitig los zu werden.

andy12
PostRank 5
PostRank 5
Beiträge: 226
Registriert: 25.10.2010, 15:40
Wohnort: Dresden

Beitrag von andy12 » 13.12.2010, 13:41

chris21 hat geschrieben: Am Besten wäre aber tatsächlich, die SESSIDs programmatisch serverseitig los zu werden.
Die SessionID sollte auch jede vernünftige CMS oder Shopsoftware heutzutage von selbst verstecken.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag