Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Parameter von Indexierung ausschliessen

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
larsmessmer
PostRank 1
PostRank 1
Beiträge: 17
Registriert: 13.02.2005, 18:09

Beitrag von larsmessmer » 21.02.2005, 09:34

Hallo

Hat jemand eine Ahnung wie ich Die Indexierung eines bestimmten Parameters ausschliessen kann, zwar so das nur dieser Ausgeschlossen wird und alle anderen trotzdem indiert werden.

Parameter:
www.domain.com/index.php?id=59[b]&type=98[/b]

kann man das in der Robots Datei oder wie?
Ich habe auch schon gehört das Google ein Atribut im <a> Tag einführen möchte um dieses Problem zu lösen.

Gruss

Lars Messmer

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


larsmessmer
PostRank 1
PostRank 1
Beiträge: 17
Registriert: 13.02.2005, 18:09

Beitrag von larsmessmer » 21.02.2005, 09:45

Hallo ich bis wieder

habe nun die folgende Zeile in robots.txt geschrieben
Disallow: *&type=98

Ich hoffe das ist richtig so!

Gruss

Fox Mulder
PostRank 8
PostRank 8
Beiträge: 804
Registriert: 16.11.2004, 09:06

Beitrag von Fox Mulder » 21.02.2005, 09:49

larsmessmer hat geschrieben:Hallo ich bis wieder

habe nun die folgende Zeile in robots.txt geschrieben
Disallow: *&type=98

Ich hoffe das ist richtig so!

Gruss
Möglich das es so funktioniert, so geht es aber auf jeden Fall (gilt nur für Google):

Disallow: /*&type=98

Gruss

NoCry
PostRank 1
PostRank 1
Beiträge: 26
Registriert: 20.02.2004, 04:20

Beitrag von NoCry » 21.02.2005, 11:33

Noch eine Idee wenn die 98 auch dynamisch ist?
Sorry, also wenn alles mit type=XX "weg" soll.

Vielleicht /*&type=*
oder nur /*&type=

Gruss

//NoCry

Gonzalez
PostRank 1
PostRank 1
Beiträge: 29
Registriert: 10.03.2005, 12:15

Beitrag von Gonzalez » 21.07.2005, 09:38

Hallo!

Ich stehe vor dem selben Problem, glaube aber, dass die hier genannte Lösung nicht funktioniert.

Auf https://www.robotstxt.org/wc/exclusion-admin.html steht, dass Wildcards nicht zulässig sind:
Specifically, you cannot have lines like "Disallow: /tmp/*" or "Disallow: *.gif".
Hat sonst jemand ne Lösung? Ich will eine bestimmte Parameter-Seite der Form https://www.domain.de/?p=30 aus dem Index ausschließen, ohne das https://www.domain.de davon berührt wird. Derzeit mache ich das mit einer PHP-Abfrage in der index.php, die - wenn p=30 gesetzt ist, "noindex, nofollow" in den Metatags ausgibt.

Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 21.07.2005, 14:26

Ich stehe vor dem selben Problem, glaube aber, dass die hier genannte Lösung nicht funktioniert.
Google unterstuetzt Wildcards und folgt damit nicht nicht exclusion-standard. Allerdings wird dieser Parameter nicht von der URL Console akzeptiert. Der Googlebot haelt sich aber dran.
oder nur /*&type=
Das sollte so funktionieren.

Gruss
Chris

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag