Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

robots.txt wie bekomm ich

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
Yel nats
PostRank 7
PostRank 7
Beiträge: 646
Registriert: 28.06.2004, 07:50

Beitrag von Yel nats » 15.08.2006, 07:49

Hallo,

wie bekomm ich per robots.txt folgendes aus Google verbannt

https://www.domain.de/?op=BlogProfile&blogId=20
https://www.domain.de/?op=UserProfile&userId=20

also alles ab .de/?op


Gruß,

Yel nats

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


mark
PostRank 9
PostRank 9
Beiträge: 1052
Registriert: 21.05.2003, 11:37

Beitrag von mark » 15.08.2006, 07:56

Dann nimm

/?op*

sollte funktionieren.
Testen kann man es auch über Google Sitemaps.
Bild

KOHLFUERST
PostRank 5
PostRank 5
Beiträge: 212
Registriert: 02.05.2006, 07:23
Wohnort: Salzburg

Beitrag von KOHLFUERST » 15.08.2006, 12:13

Vor ca. 2 Wochen hat hier jemand einen Link gepostet der auf Google ganz genaue Anweisungen für Meta Tags gibt. Der Inhalt des Dokuments gibng etwas tiefer. Vielleicht schaust du mal nach. Im Thread ging es darum Google für PHP Session ID's zu sperren. Grüße, Michael

KOHLFUERST
PostRank 5
PostRank 5
Beiträge: 212
Registriert: 02.05.2006, 07:23
Wohnort: Salzburg

Beitrag von KOHLFUERST » 18.08.2006, 08:27

@yel nats - hier ist ein Link zur großen Mama der dir genaue Anweisungen für alle arten von Sperrungen gibt. Damit ist es einfach die URLs mit Session Variablen auszusperren - vor allem für ALLE Suchmaschinen. Wichtig ist aber, dass du den Suchmaschinen einen Link legst der ohne Session auskommt - sonst kommen deine Seiten nie in die SuMas

https://www.google.com/support/webmaste ... pic=&type=

Grüße, Michael

Hasenhuf
PostRank 9
PostRank 9
Beiträge: 2840
Registriert: 26.12.2005, 22:22

Beitrag von Hasenhuf » 18.08.2006, 10:59

KOHLFUERST hat geschrieben:- vor allem für ALLE Suchmaschinen.
google hat geschrieben:Da es sich jedoch um eine Erweiterung des Standards handelt, wird das Muster eventuell nicht von allen Suchmaschinen erkannt.

KOHLFUERST
PostRank 5
PostRank 5
Beiträge: 212
Registriert: 02.05.2006, 07:23
Wohnort: Salzburg

Beitrag von KOHLFUERST » 18.08.2006, 11:19

@hasenhuf - in dem Fall verwende ich immer

User-agent: *
Disallow: https://www.domain.xx/phpsessionid=

Das dürfte somit alles ausschliessen was damit beginnt und müsste meiner Erfahrung nach für alle Suchmaschinen passen. Wir haben das mal bei einem Portal mit echten 2,4 Mio Seiten und 2 Domains probiert. Da haben wir eine der beiden Domains in der robots.txt gesperrt. Als die draussen war, haben wir diese neu bestückt.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag