Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

zu viele google Einträge........

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
fairsand
PostRank 9
PostRank 9
Beiträge: 1131
Registriert: 07.02.2005, 18:34
Wohnort: Niederhofen

Beitrag von fairsand » 14.10.2005, 12:42

Ich habe mein Forum komplet umgebaut.
mod_rewrit, sitemap ect.
Leider indexiert google alles bei mir.
Ich bekomme Einträge ohne Ende.

Leider wurden viel Seiten in der Umbauphase mit einer "sid-" eingetragen.

Dieses versuche ich mit der robot.txt zu unterbinden.

User-agent: Googlebot
Allow: /
Disallow: /community
Disallow: /*sid-
Disallow: /*.php?$


php Seiten sollen nicht eingetragen werde, da ich keinen doppelten Content will.
Seiten mit Session Ids sollen nicht mehr eingetragen werden.
Und den Ordner Community gibt es nicht mehr.

Ist der Code ok?

Was könnte ich sonst noch machen ?
Danke

Gruß

Peter

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Malte Landwehr
PostRank 10
PostRank 10
Beiträge: 3474
Registriert: 22.05.2005, 10:45

Beitrag von Malte Landwehr » 14.10.2005, 12:45

Ich bin kein Experte, bin aber der Meinung, dass Sternchen (*) in einer Robots.txt nicht so verwendet werden können, wie du es gerne hättest.
Die 45 wichtigsten SEO-Tools und wie ich sie nutze.

Anonymous

Beitrag von Anonymous » 14.10.2005, 13:01

ich weis nicht, ob der googlebot den Allow versteht, aber auch wenn, ist dieser falsch verwendet... so wie du ihn verwendest erlaubst du alles...
Allow ist dazu gedacht um Unterbereiche von Dissallow wieder zuzulassen

bsp:

Dissallow /news
Allow /news/today

um alles ausser den heutigen news für bots im ordner news zu sperren...