Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

welche Dateigröße wird noch gespidert?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
ffa
PostRank 3
PostRank 3
Beiträge: 92
Registriert: 13.02.2006, 16:52
Wohnort: Franken

Beitrag von ffa » 17.02.2006, 18:55

ich habe eine Sitemap Datei mit internen Links zu allen 10.000 Produkten erstellt. Die Datei ist nun alleine schon 2,7 MB groß.
Wird die Datei überhaupt noch von den Robots gespidert?
In welche KB Häppchen sollte man so eine Sitemap aufteilen?

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

ole1210
PostRank 10
PostRank 10
Beiträge: 7464
Registriert: 12.08.2005, 10:40
Wohnort: Olpe

Beitrag von ole1210 » 17.02.2006, 19:01

Es wird immerwieder gesagt, das ne Seite nicht mehr alls 100 Links enthalten sollte. Du müsstest deine Seite also in 101 kleine Seiten Aufteilen.

100x100 = 10.000 und eine Als Sitemap für die 100 Dateien...

Hab ebei mir auf ner Sitemap ca. 140 Seiten. Wird fast täglich gespidert.

Aber 2,7 MB gibt auch ne Menge Traffic.....

ffa
PostRank 3
PostRank 3
Beiträge: 92
Registriert: 13.02.2006, 16:52
Wohnort: Franken

Beitrag von ffa » 20.02.2006, 11:57

Seit dem Wochenende ist die Seite im Cache von Google.
Hier sind fast genau 100kb von den 2,7 MB im Cache gelistet.

Hat schon jemand Erfahrung ob auch nur die Dateigröße "ausgewertet" wird, oder ist das nur ein Limit von Dateigrößen im Google Cache?

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Oliver Henniges
PostRank 1
PostRank 1
Beiträge: 22
Registriert: 21.02.2006, 11:07
Wohnort: 31249

Beitrag von Oliver Henniges » 21.02.2006, 11:47

Ich habe eine 70MByte große PDF-Datei (ein Lieferantenkatalog) angekoppelt. Wenn ich meine google-sitemap aktualisiere, geht die bei jedem zweiten mal durch, die andere Hälfte gibts einen timeout. Ich denke aber 2,7 MB dürften für den spider kein großes Problem sein.

Daß die links dann kaum noch was wert sind, ist eine andere Sache.

nachfolger
PostRank 2
PostRank 2
Beiträge: 45
Registriert: 05.01.2006, 21:53
Wohnort: Bern

Beitrag von nachfolger » 21.02.2006, 12:50

ffa hat geschrieben:Seit dem Wochenende ist die Seite im Cache von Google.
Hier sind fast genau 100kb von den 2,7 MB im Cache gelistet.
Eine Bestätigung der Aussage von Sebastian Erlhofer in seinem Buch "Suchmaschinen-Optimierung für Webentwickler" ?

Er sagt auf Seite 97/98 dass google lediglich 101 Kilobyte einer Webseite untersucht.

Hasenhuf
PostRank 9
PostRank 9
Beiträge: 2840
Registriert: 26.12.2005, 22:22

Beitrag von Hasenhuf » 21.02.2006, 13:31

Das kann ich an einem Beispiel widerlegen. Besser gesagt ich konnte. Da ich den code schlanker gemacht habe, ist die Datei jetzt genau 100kB groß, sie wurde aber auch mit 137kB mit einem der letzten Worte gefunden.

Mr.Neiz
PostRank 2
PostRank 2
Beiträge: 51
Registriert: 14.07.2005, 10:23
Wohnort: berlin

Beitrag von Mr.Neiz » 21.02.2006, 13:44

also wenn man den google sitemap service benutzt, werden locker grössen von 800-900kb gespidert....
vielleicht einfach mal deine sitemap dort bereitstellen und schauen was passiert...:-)
es sei den du willst die datei deinen kunden bereitstellen...

ole1210
PostRank 10
PostRank 10
Beiträge: 7464
Registriert: 12.08.2005, 10:40
Wohnort: Olpe

Beitrag von ole1210 » 21.02.2006, 13:56

Die größte Datei die aktuell auf einem Proekt liegt ist ein 121kb großes html-File.

Ist von google bis in die letzte Zeile gespidert und auch mit 121kb im Cache.

Antworten