Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

robots.txt: index.html & index.php immer Disallow?

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
Anonymous

Beitrag von Anonymous » 28.07.2005, 09:36

Hallo,

ich hab mir gerade mal Gedanken über die robots.txt gemacht.
Eigentlich müsste man die index.html & index.php doch immer auf disallow setzen, um doppelten Content mit / zu vermeiden, oder?
selbst wenn man selber darauf achtet, es nicht zu verlinken, es könnte doch immer noch jemand anderes einen link drauf setzen...

Oder liegt da ein Denkfehler meinerseits vor?

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag