Doppelter Content durch Standarddokument?
Verfasst: 21.12.2006, 05:53
Hi,
bin gerade etwas verwirrt.
Ist es sinnvoll bei einer Domain die über www.domain.de und
über www.domain.de/index.html zu erreichen ist, letzteres in der
robots.txt auszuschließen, um doppelten Content zu vermeiden?
Also:
-------------
User-agent: Googlebot
Disallow: /index.html
-------------
Oder erkennt Google automatisch das es sich hier um das Standarddokument handelt
und wertet es nicht als doppelten content?
Gruss & frohes Fest
bin gerade etwas verwirrt.
Ist es sinnvoll bei einer Domain die über www.domain.de und
über www.domain.de/index.html zu erreichen ist, letzteres in der
robots.txt auszuschließen, um doppelten Content zu vermeiden?
Also:
-------------
User-agent: Googlebot
Disallow: /index.html
-------------
Oder erkennt Google automatisch das es sich hier um das Standarddokument handelt
und wertet es nicht als doppelten content?
Gruss & frohes Fest