Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Dynamische Seiten entfernen

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
Fox Mulder
PostRank 8
PostRank 8
Beiträge: 804
Registriert: 16.11.2004, 09:06

Beitrag von Fox Mulder » 15.01.2005, 08:28

Hallo,

ich habe nach dieser Anleitung (Punkt 12) die robots.txt ergänzt um dynamische Seiten aus dem Googleindex zu entfernen:
https://www.google.de/intl/de/webmasters/faq.html#12

User-agent: Googlebot
Disallow: /*?

Danach wollte ich die dynamischen Seiten mit der Urlconsole entfernen, indem ich die robots.txt dort eingetragen habe.

Leider erhalte ich dort die folgende Fehlermeldung:
URLs dürfen keine Platzhalter enthalten (z.B. „*“). Die folgende Zeile enthält einen Platzhalter:
DISALLOW /*?
Kennt Google die eigenen Standards nicht oder mache ich was falsch?

Gruss

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

chulian
PostRank 3
PostRank 3
Beiträge: 94
Registriert: 30.10.2004, 10:25

Beitrag von chulian » 15.01.2005, 16:33

vielleicht sollte es z.b Disallow:/index.php? heissen. weiss das jemand genau, will nämlich nach mod_rewrite umstellung meine alten links entfernen?

Gruß

manute
PostRank 10
PostRank 10
Beiträge: 3010
Registriert: 22.07.2003, 11:02
Wohnort: Hamburg

Beitrag von manute » 15.01.2005, 17:36

auf robots.txt kann man sich nicht wirklich verlassen.
ich würde es mit .htaccess machen und die alten urls per 301 umleiten.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Webby
Administrator
Administrator
Beiträge: 5420
Registriert: 17.10.2001, 01:00

Beitrag von Webby » 15.01.2005, 17:54

Genau so ist es. man kann nicht in robots.txt heutzutages vertrauen es muss mit 301 gemacht worden und das ist sowieso wie google das haben wolltest.

Alan
ABAKUS Internet Marketing
Professionelle Suchmaschinenoptimierung und Suchmaschinenmarketing

Fox Mulder
PostRank 8
PostRank 8
Beiträge: 804
Registriert: 16.11.2004, 09:06

Beitrag von Fox Mulder » 15.01.2005, 22:32

Nun ja, die 301 Lösung wird wohl gehen, dauert halt nur länger.

Ist nur schade das Google eigene Vorgaben nicht beachtet.

Gruss

Fox Mulder
PostRank 8
PostRank 8
Beiträge: 804
Registriert: 16.11.2004, 09:06

Beitrag von Fox Mulder » 16.01.2005, 10:37

Hi,

kann mir jemand sagen ob Google diese Regel in der robots.txt überhaupt beachtet:
User-agent: Googlebot
Disallow: /*?
Hat die jemand erfolgreich im Einsatz?

Gruss

wbartl
PostRank 5
PostRank 5
Beiträge: 292
Registriert: 07.12.2003, 13:06

Beitrag von wbartl » 16.01.2005, 23:56

Diese Regel habe ich nicht, aber so eine:

User-agent: Googlebot
Disallow: /portal.php?

Und die funktioniert bei mir, auch mit der Urlkonsole von Google.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag