Seite 1 von 2

Wie "tief" crawled der Googlebot?

Verfasst: 14.06.2008, 19:21
von lazy74
Hallo,

ich habe von meiner Hauptseite auf diverse Kategorieseiten verlinkt.
Da die Kategorien recht groß sind und ich nur 5 Produkte pro Kategorieseite anzeige, habe ich je nach Kategorie bis zu 3705 Seiten, die jeweils auf 5 Produkte verlinken.

Findet nun der Googlebot auch die hinteren Seiten einer Kategorie und vor allem auch die Produktseiten, auf welche diese verlinken?

Oder crawled Google nur "bis zu einer gewissen Tiefe"?

Ich wundere mich, dass Google es seit einem halben Jahr nur geschaft hat ca. 25% meiner Seiten zu crawlen.

Selbst wenn ich es schaffen würde 50 Produkte pro Seite anzuzeigen (was für mich technisch schon imens aufwendig wäre), käme ich auf 370 Seiten für eine Kategorie.

Verfasst:
von

Verfasst: 14.06.2008, 20:56
von realloader
mehr als die vierte Ebene crawlt google meines Wissens nicht

Verfasst: 15.06.2008, 08:56
von lazy74
realloader hat geschrieben:mehr als die vierte Ebene crawlt google meines Wissens nicht
:o :o :o

Dann habe ich wohl ein ernstes Problem.
Bist du dir da sicher? Oder kann das jemand bestätigen?

Dann müßte ich entweder meine Seite komplett umbauen oder meine Hoffnung auf die Sitemap legen. Wobei da auch nicht nicht sicher sein sol, dass durch sie alle Seiten indiziert werden.

Verfasst:
von

Verfasst: 15.06.2008, 09:06
von MrTunes
naja, selbst wenn das stimmt...
ein externer Link auf eine page 5.Ebene und die Seite wird sozusagen zur 1.Ebene.

Aber mal eine Frage. Wie kommt ein Besucher, der auf der Startseite einsteigt auf das allerletzte Produkt? Muss der 3705 mal klicken?? Oder wie war das zu verstehen.

Schau mal, wie ein menschlicher Besucher deine Seite ansehen würde. Wenn er sich dort gut zurecht findet (ohne eine interne Suchmaschine zu benutzen) dann findet sich Google dort auch gut zurecht.

Verfasst: 15.06.2008, 09:22
von lazy74
MrTunes hat geschrieben:naja, selbst wenn das stimmt...
ein externer Link auf eine page 5.Ebene und die Seite wird sozusagen zur 1.Ebene.

Aber mal eine Frage. Wie kommt ein Besucher, der auf der Startseite einsteigt auf das allerletzte Produkt? Muss der 3705 mal klicken?? Oder wie war das zu verstehen.

Schau mal, wie ein menschlicher Besucher deine Seite ansehen würde. Wenn er sich dort gut zurecht findet (ohne eine interne Suchmaschine zu benutzen) dann findet sich Google dort auch gut zurecht.
Ich kann aber nicht etwa 5000 Kategorieseiten extra verlinken. Das wäre echt viel Arbeit :-?

Zu Deiner Frage: Ich habe auf der Seite zwei Suchfunktionen, damit findet man das entsprechende Produkt. Nur dazu mußt du einen Namen eingeben, das kann ein Mensch, aber Google leider nicht :roll:

Verfasst: 15.06.2008, 09:33
von MrTunes
ich sehs schon.
ich würde noch eine navigation ohne suche anbieten.
also statt noch plz 14263 zu suchen, sollte man auch klicken können
1xxxx
14xxx
142xx
14263

zB. oder denk dir was besseres aus;)

Verfasst: 15.06.2008, 12:24
von lazy74
Das hatte ich anfangs bei der Planung auch vor. Aber das Design gab das nicht her, ich mußte wählen zwischen den Markenkategorien oder der PLZ-Suche.

Und wie du siehst, habe ich mich für die Marken entschieden :wink:

Jetzt muss ich mir was anderes einfallen lassen

Verfasst: 15.06.2008, 12:44
von MrTunes
marke
1xxxx
10xxx
102xx
10234

??

Verfasst: 15.06.2008, 12:51
von burntpunch
Im Grunde braucht die Seite nur genug Linkpower, insbesondere in Form von Deeplinks, dann sollte das schon funktionieren. Du musst dabei nicht jede Unterseite verlinken, da wie schon gesagt jede Unterseite dann wieder zu einem neuen Startpunkt für den Bot wird.

Ansonsten kannst du dir auch mal hier:
https://blog.markus-kindler.de/archives/37
die letzten zwei Punkte ansehen, kann dir aber nicht sagen, wie gut das heute noch funktioniert.

Verfasst: 19.06.2008, 11:36
von lazy74
Habe jetzt vor mir eine "Online-Sitemap" aufzubauen, die alle 5000 Kategorieseiten beinhaltet.

Damit habe ich nur "zwei Ebenen", die Google crawlen muss, um alle meine URLs zu lesen.

Gibt es ein Limit, wie viele Links ich auch eine Webseite packen darf?
Straft Google mich etwa ab, wenn es zu viele Links sind?

Die Größe der Seite ist ja durch die vielen Links auch recht groß.

Verfasst: 19.06.2008, 12:05
von Pompom
Gibt es ein Limit, wie viele Links ich auch eine Webseite packen darf?
Nein.
Straft Google mich etwa ab, wenn es zu viele Links sind?
Nein.

Verfasst: 20.06.2008, 11:35
von lazy74
Okay danke.

Eine Frage noch:
Verfolgt Google auf einer Seite nur absolute Links zu Unterseiten (zb: https://www.domain.de/seite1.html) oder auch relative Links ( /seite1.html)?

Verfasst: 20.06.2008, 11:43
von bjoerntantau
...relativ oder absolut ist dem Bot egal. Er folgt beiden Arten von Links...

Verfasst: 20.06.2008, 11:44
von Hohenberg
Sowohl als auch. Wieso auch nicht?