Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Doppelter Content durch Standarddokument?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
Fox Mulder
PostRank 8
PostRank 8
Beiträge: 804
Registriert: 16.11.2004, 09:06

Beitrag von Fox Mulder » 21.12.2006, 05:53

Hi,
bin gerade etwas verwirrt.
Ist es sinnvoll bei einer Domain die über www.domain.de und
über www.domain.de/index.html zu erreichen ist, letzteres in der
robots.txt auszuschließen, um doppelten Content zu vermeiden?
Also:
-------------
User-agent: Googlebot

Disallow: /index.html
-------------

Oder erkennt Google automatisch das es sich hier um das Standarddokument handelt
und wertet es nicht als doppelten content?

Gruss & frohes Fest