Seite 1 von 1

Böse Falle

Verfasst: 06.01.2005, 18:19
von guppy
mir ist aufgefallen, dass seiten und domains, die über die robot.txt für google gesperrt sind, trotzdem pr bekommen. (ist das erst seit diesem update so ?)
es gibt aber keinen cache, also scheint die seite echt nicht gespidert zu sein, also vererbt sie auch nicht. da tun sich für die bösen jungs ja richtig möglichkeiten auf, aber das wissen die bestimmt schon.

die frage ist jetzt ob der pr auch bleibt, wenn man einen ordner über die robot txt sperrt, wenn er pr hat ? vererbt er dann weiter oder wie ?
oder müssen dann nicht nur die links kontrolliert werden, sondern auch der cache der seiten, denn die yahoo-oder-andere-suma-bl-anzeige zeigt die links ja weiter an. arelis und co ist dann auch für`n dutt :cry: .

Verfasst:
von

Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Verfasst: 06.01.2005, 22:21
von UweT
zu deiner beruhigung, dass ist nicht erst seit diesem update so.
linkt man auf eine seite die von der robots.txt ausgeschlossen ist, so bekommt diese auch den pr. Vererbt wird von dieser seite jedoch nichts, da die seite die 100% indexiert wird, meist sieht man nur die URL im index, ohne Inhalt/Titel.

gruß
tbone.

Verfasst: 07.01.2005, 12:09
von guppy
@tbone
@all
ist ja süss, das bedeute ja das bei der ganzen verflixten linktauscherei das nächste handycap besteht, man müsste ja jetzt täglich schauen ob nicht irgend so ein"pfiffikus" den ordner mit den linktauschseiten für google gesperrt hat.

eine weitere frage wäre - hat derjenige, der sich so verhalten würde, davon vorteile. er gibt ja dann weniger pr ab - wertet dass nur die seite auf oder die ganze domain. gibt es darüber nachvollziehbare versuche? hier im forum finde ich immer nur die feststellung, das sich wenige oder keine ausgehenden links positiv auf den pr der seite auswirken. ist damit nun wirklich die seite gemeint oder doch die domain ? und sind das behauptungen oder ist das wirklich belegbar ?

nächste frage: kennt jemand ein tool (vergleichbar mit arelis und co) , dass den sachverhalt der robots txt- sperrung der linkseiten berücksichtigt. ?