Seite 1 von 1

Deeplink-Frage / Einfluss auf Spiderrate?

Verfasst: 01.07.2005, 15:15
von Chris2005
Hallo zusammen,

ich habe eine Frage zu Deeplinks und ihre Auswirkung auf die "spiderfreudigkeit" des Googlebots.

Folgende Situation: Googlebot kommt täglich vorbei und nimmt ein paar Seiten mit. Alle 9-10 Tage kompletter Deepcrawl. Also beschweren kann ich mich eigentlich nicht, aber man ist ja nie zufrieden :wink:

Wie kann ich den Googlebot animieren ein paar mehr Seiten bei seinem täglichen Besuch mitzunehmen? Würden Deeplinks helfen? Oder soll ich nur Links auf die Startseite sammeln?

Vor Bourbon hat der Bot so ziemlich alles mitgenommen, was direkt von der Startseite verlinkt war. Mittlerweile ist er da etwas "selektiver" geworden. Verlinkung ist gleichgeblieben bzw. stärker geworden.

Content auf der Startseite ist täglich frisch und die neuen Seiten werden auch von der Startseite aus verlinkt, d.h. steigender Content müsste für den Bot ersichtlich sein.

Nun eben die Frage. Deeplinks oder "normale" Links?

Chris

Verfasst:
von

Verfasst: 02.07.2005, 12:58
von HW
Deep-Links fördern die Durchblutung einer Domain.
Das bewirkt zum einen, dass die unteren Ebenen öfter und tiefer gecrawlt werden und wirkt sich positiv aufs Ranking aus.

Die Sandbox Gefahr wird deutlich verringert und das Linkwachstum erscheint deutlich natürlicher.

Deeplink-Frage / Einfluss auf Spiderrate?

Verfasst: 02.07.2005, 13:07
von Chris2005
Danke für das Feedback.

Das Bild mit der Steigerung der Verblutung ist gut :) Muss ich mir merken.

Verfasst:
von

Verfasst: 02.07.2005, 13:15
von rechtlegal
Das bewirkt zum einen, dass die unteren Ebenen öfter und tiefer gecrawlt werden
Stimmt! Ob es die Sandbox (gibt's die wirklich?) vermeiden hilft, bezweifele ich. Das Ranking wird natürlich nur in Bezug auf die Subdom., auf die der Deeplink zeigt, verbessert.

Verfasst: 02.07.2005, 13:56
von Chris2005
rechtlegal hat geschrieben:
Das bewirkt zum einen, dass die unteren Ebenen öfter und tiefer gecrawlt werden
Stimmt! Ob es die Sandbox (gibt's die wirklich?) vermeiden hilft, bezweifele ich. Das Ranking wird natürlich nur in Bezug auf die Subdom., auf die der Deeplink zeigt, verbessert.
Subdomain? Ich dachte eher an Links, die auf tiefen Content zeigen.

z.B.:

www.domain.tld/ebene2
www.domain.tld/ebene3

Ebene bezieht sich auf die Anzahl der Klicks, der G-Bot braucht.

Gruss
Chris

Deeplink-Frage / Einfluss auf Spiderrate?

Verfasst: 02.07.2005, 13:57
von ION
Sandbox (gibt's die wirklich?)
laut patentschrift bezieht g. auch das alter einer domain und einer seite mit ein.
https://www.marketposition.com/blog/arc ... veals.html
also gibt es die sandbox.

mit welchen parametern etc. das alter in die bewertung einfließt, weiß (wahrscheinlich ;) ) nur g. selbst.

klar ist aber auch, dass man an diesem faktor selbst nichts machen kann. aber es gibt ja genug andere :D

Verfasst: 02.07.2005, 14:03
von rechtlegal
@Chris2005

Sorry! Natürlich nicht Subdomain, sondern "tief liegendende" Seiten. :oops:

Deeplink-Frage / Einfluss auf Spiderrate?

Verfasst: 08.07.2005, 16:00
von OnkelHotte
Nochmal zum Verständnis:

Besser so

1) https://www.xyz.de/foo/12/07/2005/

oder lieber

2) https://www.xyz.de/foox/12-07-2005.html

?

Deeplink-Frage / Einfluss auf Spiderrate?

Verfasst: 08.07.2005, 16:04
von Chris2005
@OnkelHotte

Das ist egal. Es kann auch https://www.xyz.de/tief/tiefer/noch-tie ... index.html sein. Ausschlaggebend ist, wieviel "Klicks" Google von der Startseite braucht um zu diese Seite zu kommen. Ist die Datei also direkt von der Startseite verlinkt, ist es nur 1 Klick (trotz der viele Verzeichnisse).

Edit: :lol: Der Link verlinkt auf freenet.de :-)

Deeplink-Frage / Einfluss auf Spiderrate?

Verfasst: 08.07.2005, 16:37
von rechtlegal
Deshalb sollte man ja auch eine sitemap einrichten.

Ich meine hier übrigens die sitemap auf der site, nicht die neue von Google.