Seite 1 von 1

Doppelter Content durch Standarddokument?

Verfasst: 21.12.2006, 05:53
von Fox Mulder
Hi,
bin gerade etwas verwirrt.
Ist es sinnvoll bei einer Domain die über www.domain.de und
über www.domain.de/index.html zu erreichen ist, letzteres in der
robots.txt auszuschließen, um doppelten Content zu vermeiden?
Also:
-------------
User-agent: Googlebot

Disallow: /index.html
-------------

Oder erkennt Google automatisch das es sich hier um das Standarddokument handelt
und wertet es nicht als doppelten content?

Gruss & frohes Fest

Verfasst:
von
Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Verfasst: 21.12.2006, 06:11
von [btk]tobi
Wenn man nach dem Pagerank geht sieht Google domain.de/index.html gleich wie domain.de/ zumindest wird der gleiche Pagerank angezeigt auch wenn domain.de/index.html nirgends verlinkt ist hat sie dem Pagerank der Domain.

Wegen doppeltem Content würde ich mir keine Sorgen machen, ich glaub eh das Gogle doppelten Content solange er auf einer Domain liegt nicht so eng sieht, sonst währen einige Seiten deutlich schlechter gelistet.

Verfasst: 21.12.2006, 11:04
von chris21
[btk]tobi hat geschrieben: Wenn man nach dem Pagerank geht sieht Google domain.de/index.html gleich wie domain.de/ zumindest wird der gleiche Pagerank angezeigt auch wenn domain.de/index.html nirgends verlinkt ist hat sie dem Pagerank der Domain.
Dies wird aber dann interessant, wenn man statt einer index.html eine index.php hat. Dann nämlich haben "/" und die nicht vorhandene "/index.html" den gleichen Pagerank, während die "/index.php" einen anderen haben kann. So ganz ausgereift scheint dies also noch nicht zu sein.

Verfasst:
von

Verfasst: 21.12.2006, 11:43
von fliper
also ich habe da auch schlechte erfahrungen mit uns setze seit dem konsequent jeden Homelink auf die Domain. Google vergibt wirklich unetrschiedliche PageRanks, wenn das inkonsistent gelöst ist. ist der Pagerank gleich, interpretiere ich das als Zufall ;-)

Verfasst: 21.12.2006, 11:52
von Fox Mulder
fliper hat geschrieben:also ich habe da auch schlechte erfahrungen mit uns setze seit dem konsequent jeden Homelink auf die Domain.
Sollte man um dies zu vermeiden, die index.xxx Dokumente dann nicht grundsätzlich in robots.txt ausschließen und konsequent auf die Domain verlinken?

-------------
User-agent: Googlebot

Disallow: /index.html
Disallow: /index.php
-------------

Verfasst: 21.12.2006, 13:12
von chris21
fliper hat geschrieben: ist der Pagerank gleich, interpretiere ich das als Zufall
Wenn eine nicht vorhandene index.html den gleichen Pagerank hat wie das Verzeichnis "/", dann ist das wohl kein Zufall. Erst recht nicht, wenn ich in diesem Fall von einem PR 6 rede, während die existente "/index.php" einen PR 3 hatte.

@Fox Mulder: ich bin mir auch nicht sicher, wie Google mit so einer Anweisung umgeht, vielleicht magst Du es probieren und berichten? (Könnte man ja erst mal bei einem unwichtigen Unterverzeichnis machen). Vielleicht sollte man noch ein Allow: / dazu setzen.

Verfasst: 21.12.2006, 14:48
von FloM
Ich für meinen Teil will es nicht austesten, sondern auf index.php einen 301 und weiterleitung zu / machen. Habe ein wenig rumprobiert, aber bekomme den eintrag in der .htaccess nicht korrekt hin. Weiss jemand wie?

Verfasst: 21.12.2006, 14:56
von [btk]tobi
Google vergibt wirklich unetrschiedliche PageRanks, wenn das inkonsistent gelöst ist. ist der Pagerank gleich, interpretiere ich das als Zufall
Das ist bestimmt kein Zufall, ist nämlich bei allen meinen Domains so. Das währe ja schon arger Zufall.

Ich für meinen Teil will es nicht austesten, sondern auf index.php einen 301 und weiterleitung zu / machen. Habe ein wenig rumprobiert, aber bekomme den eintrag in der .htaccess nicht korrekt hin. Weiss jemand wie?
Solange die index.php deine Startseite ist geht das ohne weiteres garnicht weil es sonst eine Endlosschleife gibt.

Verfasst: 25.12.2006, 01:03
von Mamboo
@FloM
vielleicht findest du hilfe auf der folgenden Webseite:
Mod Rewrite Tutorial

Re: Doppelter Content durch Standarddokument?

Verfasst: 25.12.2006, 08:44
von lool
Fox Mulder hat geschrieben: Ist es sinnvoll bei einer Domain die über www.domain.de und
über www.domain.de/index.html zu erreichen ist, letzteres in der
robots.txt auszuschließen, um doppelten Content zu vermeiden?
Wegen doppeltem Content würde ich mir da keine Sorgen machen.
Ich vermute aber mal, dass Tante G. das so handhabt, wie bei Domains mit und ohne www. davor ? (Pagerank-Splitting?)

Verfasst: 12.01.2007, 13:10
von FloM
Mamboo hat geschrieben:@FloM
vielleicht findest du hilfe auf der folgenden Webseite:
Mod Rewrite Tutorial
mhm da stehen nur die Techniken. Habe aber keinen Schimmer wie ich das Problem lösen kann.

Verfasst: 12.01.2007, 13:23
von Fridaynite
-------------
User-agent: Googlebot

Disallow: /index.html
Disallow: /index.php
-------------
Finger weg von so einem Mist.
Google kann sehr wohl mit der index.html umgehen und hat da kein Problem damit.
Die index.php ist eine schlechte Lösung. Da würde ich rewriten in eine index.html - die vererbt besser Linkpower. Wurde von mir schon Jahrelang getestet. Ist so.