Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Deeplink-Frage / Einfluss auf Spiderrate?

Ein wichtiges Thema für einige Suchmaschinen. Dieses Unterforum dient zur Beantwortung von Fragen rund um das Thema Link-Marketing, Linkbaits, Widgets, Ideen die Linkerati zu finden und wecken!

(Kein Link Farm / Linktausch Börse usw.)
Neues Thema Antworten
Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 01.07.2005, 15:15

Hallo zusammen,

ich habe eine Frage zu Deeplinks und ihre Auswirkung auf die "spiderfreudigkeit" des Googlebots.

Folgende Situation: Googlebot kommt täglich vorbei und nimmt ein paar Seiten mit. Alle 9-10 Tage kompletter Deepcrawl. Also beschweren kann ich mich eigentlich nicht, aber man ist ja nie zufrieden :wink:

Wie kann ich den Googlebot animieren ein paar mehr Seiten bei seinem täglichen Besuch mitzunehmen? Würden Deeplinks helfen? Oder soll ich nur Links auf die Startseite sammeln?

Vor Bourbon hat der Bot so ziemlich alles mitgenommen, was direkt von der Startseite verlinkt war. Mittlerweile ist er da etwas "selektiver" geworden. Verlinkung ist gleichgeblieben bzw. stärker geworden.

Content auf der Startseite ist täglich frisch und die neuen Seiten werden auch von der Startseite aus verlinkt, d.h. steigender Content müsste für den Bot ersichtlich sein.

Nun eben die Frage. Deeplinks oder "normale" Links?

Chris

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

HW
PostRank 8
PostRank 8
Beiträge: 761
Registriert: 04.04.2004, 08:00
Wohnort: Viersen

Beitrag von HW » 02.07.2005, 12:58

Deep-Links fördern die Durchblutung einer Domain.
Das bewirkt zum einen, dass die unteren Ebenen öfter und tiefer gecrawlt werden und wirkt sich positiv aufs Ranking aus.

Die Sandbox Gefahr wird deutlich verringert und das Linkwachstum erscheint deutlich natürlicher.

Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 02.07.2005, 13:07

Danke für das Feedback.

Das Bild mit der Steigerung der Verblutung ist gut :) Muss ich mir merken.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

rechtlegal
PostRank 9
PostRank 9
Beiträge: 2874
Registriert: 20.04.2005, 17:23
Wohnort: Tespe / Elbe (daneben ist Hamburg)

Beitrag von rechtlegal » 02.07.2005, 13:15

Das bewirkt zum einen, dass die unteren Ebenen öfter und tiefer gecrawlt werden
Stimmt! Ob es die Sandbox (gibt's die wirklich?) vermeiden hilft, bezweifele ich. Das Ranking wird natürlich nur in Bezug auf die Subdom., auf die der Deeplink zeigt, verbessert.

Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 02.07.2005, 13:56

rechtlegal hat geschrieben:
Das bewirkt zum einen, dass die unteren Ebenen öfter und tiefer gecrawlt werden
Stimmt! Ob es die Sandbox (gibt's die wirklich?) vermeiden hilft, bezweifele ich. Das Ranking wird natürlich nur in Bezug auf die Subdom., auf die der Deeplink zeigt, verbessert.
Subdomain? Ich dachte eher an Links, die auf tiefen Content zeigen.

z.B.:

www.domain.tld/ebene2
www.domain.tld/ebene3

Ebene bezieht sich auf die Anzahl der Klicks, der G-Bot braucht.

Gruss
Chris

ION
PostRank 6
PostRank 6
Beiträge: 396
Registriert: 24.05.2005, 14:58
Wohnort: Schwerin

Beitrag von ION » 02.07.2005, 13:57

Sandbox (gibt's die wirklich?)
laut patentschrift bezieht g. auch das alter einer domain und einer seite mit ein.
https://www.marketposition.com/blog/arc ... veals.html
also gibt es die sandbox.

mit welchen parametern etc. das alter in die bewertung einfließt, weiß (wahrscheinlich ;) ) nur g. selbst.

klar ist aber auch, dass man an diesem faktor selbst nichts machen kann. aber es gibt ja genug andere :D
E-Book: Tipps & Tricks: Werbung mit Google AdWords
Konkrete Linktauschanfragen willkommen.

rechtlegal
PostRank 9
PostRank 9
Beiträge: 2874
Registriert: 20.04.2005, 17:23
Wohnort: Tespe / Elbe (daneben ist Hamburg)

Beitrag von rechtlegal » 02.07.2005, 14:03

@Chris2005

Sorry! Natürlich nicht Subdomain, sondern "tief liegendende" Seiten. :oops:

OnkelHotte
PostRank 6
PostRank 6
Beiträge: 439
Registriert: 29.06.2005, 07:05

Beitrag von OnkelHotte » 08.07.2005, 16:00

Nochmal zum Verständnis:

Besser so

1) https://www.xyz.de/foo/12/07/2005/

oder lieber

2) https://www.xyz.de/foox/12-07-2005.html

?

Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 08.07.2005, 16:04

@OnkelHotte

Das ist egal. Es kann auch https://www.xyz.de/tief/tiefer/noch-tie ... index.html sein. Ausschlaggebend ist, wieviel "Klicks" Google von der Startseite braucht um zu diese Seite zu kommen. Ist die Datei also direkt von der Startseite verlinkt, ist es nur 1 Klick (trotz der viele Verzeichnisse).

Edit: :lol: Der Link verlinkt auf freenet.de :-)
Zuletzt geändert von Chris2005 am 08.07.2005, 16:44, insgesamt 1-mal geändert.

rechtlegal
PostRank 9
PostRank 9
Beiträge: 2874
Registriert: 20.04.2005, 17:23
Wohnort: Tespe / Elbe (daneben ist Hamburg)

Beitrag von rechtlegal » 08.07.2005, 16:37

Deshalb sollte man ja auch eine sitemap einrichten.

Ich meine hier übrigens die sitemap auf der site, nicht die neue von Google.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag