Seite 1 von 1

google sitemap

Verfasst: 24.10.2006, 00:33
von harakiri
hallo leute,
suche nun schon 2 stunden in google rum.

Kennt jemand von euch ein gutes php-script zum erstellen von google sitemap?

ich will die sitemap per cronjob erstellen lassen. Das was ich bisher gefunden habe ist zu langsam oder bricht nach einigen tausend seiten ab. (habe ca. 50000 Seiten)

Aus sql auslesen geht auch nicht, da die struktur aus verschiedenen sql DB zusammengebaut wird.

Gruß

harakiri

Verfasst:
von

Verfasst: 24.10.2006, 00:41
von Kralle
https://enarion.net/google/phpsitemapng ... d/?lang=de

Find ich ganz gut. Weiß allerdings nicht, ob sich das per cronjob einbinden läßt.

Verfasst: 24.10.2006, 12:26
von harakiri
nochmal zu Thema:

wenn ich eine Sitemap erstelle, in der nicht alle Seiten aufgeführt sind, crawlt der Google Bot sich den Rest und indexiert diese oder werden nur die Seiten in der Sitemap aufgenommen?

Hat jemand Erfahrungen??

Verfasst:
von

Verfasst: 24.10.2006, 12:33
von Kralle
Der Bot sucht auch weiterhin selbständig nach Seiten und indiziert diese. Eine Sitemap ist nur eine Art Hilfestellung, insbesondere für schwer erreichbare/tiefer liegende Seiten.

Verfasst: 24.10.2006, 13:19
von harakiri
vielen Dank für die Hilfe!!!

Verfasst: 25.10.2006, 00:52
von pageranknewbee
Also ich hab vor ca 1-2 Wochen eine Sitemap für eine Domain mit ca 50.000 Seiten erstellt, eben um das Problem mit tieferliegenden Ebenen zu lösen.

Doch bemerkt habe ich bisher noch keinen Erfolg bei den indizierten Seiten. Alles ist beim Alten, außer, dass mir die google-Statistik sagt, dass die Sitemap jeden Tag mal abgerufen wird und alle URLs ok sind.

Bin ich zu ungeduldig ? Muss ich mehr Tee trinken?Logisch wäre doch, dass google nun auch alle Urls in der Sitepam indiziert, oder ? Aber tiefere Ebenen einiger Unterordner ab der 3. Ebene will google einfach nicht aufnehmen.

Verfasst: 25.10.2006, 08:45
von Kralle
Die Sitemap ist keine Garantie für eine Aufnahme. Ich muß jedoch sagen, daß der Bot bei mir meist nach kurzer Zeit vorbeikommt und crawlt.
Check mal deine Logfiles, ob der Bot die Seiten gecrawlt hat.

Verfasst: 25.10.2006, 08:51
von pageranknewbee
Also laut google-Webmastertools sind alle urls Übermittelt, aber trotzdem erscheinen nicht alle im Verzeichnis, sondern nur rund 80 Prozent. Und warum er den Rest in den tieferen Ebenen will (vor allem Daten aus einer Statistikdatenbank, un eigentlich guter Content), weiß ich nicht.

Verfasst: 25.10.2006, 09:11
von Kralle
Übermittelt heißt nicht gecrawlt! Du mußt schon an deine Logfiles.
Warum etwas dann nicht im Index landet kann viele Ursachen haben, am Häufigsten DC.