Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Schadet disallow in robots.exe dem Linkpop

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
tommis
PostRank 2
PostRank 2
Beiträge: 38
Registriert: 13.08.2005, 22:03

Beitrag von tommis » 25.10.2006, 20:22

Mir stellt sich gerade die Frage, ob es den Linkpop verschlechtert, wenn durch z.B.

Disallow: /cgi-bin/
in der robots.txt

ale Skriptaufrufe aus dem Index ausgeschlossen werden, aber wenige externe Links auf z.b. /cgi-bin/Skriptname.pl?id=12345
gesetzt sind.

Oder kürzer: Zählen externe Links auf mit der robots.txt abgeklemmte Seiten?
Zuletzt geändert von tommis am 25.10.2006, 20:44, insgesamt 1-mal geändert.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

koboxumi
PostRank 8
PostRank 8
Beiträge: 758
Registriert: 20.08.2005, 13:32
Wohnort: Solingen

Beitrag von koboxumi » 25.10.2006, 20:26

Koch kürzer:

Nein

tommis
PostRank 2
PostRank 2
Beiträge: 38
Registriert: 13.08.2005, 22:03

Beitrag von tommis » 25.10.2006, 20:43

Ich gestehe, Dein Nein sagt mir nichts, weil ich die Frage dämlich gestellt habe. Also jetzt nur noch die eine Frage:

Zählen externe Links auf mit der robots.exe abgeklemmte Seiten?

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


koboxumi
PostRank 8
PostRank 8
Beiträge: 758
Registriert: 20.08.2005, 13:32
Wohnort: Solingen

Beitrag von koboxumi » 25.10.2006, 20:52

jetzt pingelig, robots.exe ist vermutlich ne robots.txt :wink:

immer noch nein.

Wenn du das Wasser im Badezimmer, robots.txt abdrehst kommt kein Tropfen aus der Dusche.

tommis
PostRank 2
PostRank 2
Beiträge: 38
Registriert: 13.08.2005, 22:03

Beitrag von tommis » 25.10.2006, 20:57

Ich weiß nicht ich weiß nicht :-)
Die robots.txt sagt Google, die disallow-Pages auszuschliessen.
Aber warum sollte ein externer Link auf eine ausgeschlossene Seite nicht trotzdem dem Linkpop der Domain selbst dienen. Vielleicht ist Google ja doch nett :-)

koboxumi
PostRank 8
PostRank 8
Beiträge: 758
Registriert: 20.08.2005, 13:32
Wohnort: Solingen

Beitrag von koboxumi » 25.10.2006, 21:01

Weil Google /cgi-bin/Skriptname.pl?id=12345 nicht kennt weil der nette Googlebot die Seite nicht besuchen darf. Hast du Ihm doch verboten :oops:

oldInternetUser
PostRank 9
PostRank 9
Beiträge: 1250
Registriert: 19.03.2005, 12:52

Beitrag von oldInternetUser » 25.10.2006, 21:13

koboxumi hat geschrieben:Weil Google /cgi-bin/Skriptname.pl?id=12345 nicht kennt weil der nette Googlebot die Seite nicht besuchen darf. Hast du Ihm doch verboten :oops:
Falsch, man könnte auch sagen: Unausrottbare Fehlansicht.

google kennt die Url, falls diese verlinkt ist - nur nicht den Inhalt. Das ist im übrigen robots-konform.

Die Url kann sogar einen fetten PR haben. Da aber kein Inhalt bekannt ist, kann der PR nicht an andere Seiten auf der Domain weitergegeben werden. Das Ding ist also eine PR-Sackgasse. Und ob das aus solchen Sackgassen heraus irgendwie auf die Domain weitergerechnet wird, das weiß wohl nur google.

Machts doch einen Test: Neue Domain, nur eine index.html, eine von dort verlinkte Unterseite, die per robots.txt gesperrt ist. Dann auf diese Unterseite einen fetten Link setzen - und sehen, ob google nicht bloß die robots.txt, sondern zusätzlich die Startseite crawlt.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag